@sicurezza

La fantascienza sui robot umani manipola il cervello a molti. E anche la pubblicità che le aziende stesse fanno dei bot “ragionanti”.

Ieri per la newsletter di settembre ho chiesto: “cerca sul web le ultime informazioni su HIV in italiano” almeno per farmi dire su che siti andare. Speravo il bot scansionasse le date degli articoli. Mi ha dato i dati 2024 di unaids. Non voluto.

ChatGPT non è un amico: 6 errori pericolosi che fanno tutti con l’AI

https://www.punto-informatico.it/chatgpt-non-e-amico-6-errori-pericolosi-fanno-tutti-ai/

    • Elena Brescacin@mastodon.unoOP
      link
      fedilink
      arrow-up
      2
      ·
      3 days ago

      @davide @sicurezza Parlando da anagrammista, la prima cosa che ho pensato quand’è uscito il primo bot di massa “chat gpt” è stata: riuscirà a darmi spunti per gli anagrammi! Invece se gli chiedi “fai l’anagramma di ‘carlo giovanardi’” ti trova cose tipo “gran volo da ricordo” (non ha senso) e non “la droga ci rovina / la rogna ci divora / ricordo la vagina”. Non muove adeguatamente le lettere, e c’è chi gli affida la vita propria o di un’azienda, o addirittura la giustizia. @app

    • Elena Brescacin@mastodon.unoOP
      link
      fedilink
      arrow-up
      1
      ·
      3 days ago

      @davide @sicurezza Io a volte lo correggo quando sono sicura che sbaglia. Tipo: “correggi output: così, così, così”. Non mi metterei mai a dirgli tipo “ehi amico! Hai cannato alla grande!” o [insulto a caso]. Quella roba non ha scopo per la funzionalità del prodotto, ma forse l’anomalia sono io perché sono cresciuta col dos, dove erano tutti comandi testuali. Adesso sono comandi testuali lo stesso, in linguaggio naturale, che restituiscono un output. Cambiano le parole, ma sempre computer è.