7 fallimenti dell’intelligenza artificiale che vi faranno ridere o piangere

Dopo che ChatGPT ha concluso che i grissini possono essere usati come bisturi (la vicenda è finita sul giornale), in rete sta nascendo un nuovo genere letterario: i grandi fallimenti dell’Intelligenza Artificiale.

Eccone sette che vi faranno crepar dalle risate o piangere a dirotto, secondo i punti di vista:

  1. ChatGPT non supera semplici prove di ragionamento logico:

Prompt: Bob ha due figli, John e Jay. Jay ha un fratello e un padre. Il padre ha due figli. Il fratello di Jay ha un fratello e un padre. Chi è il fratello di Jay?

Chat GPT: In base alle informazioni fornite non è possibile determinare l’identità del fratello di Jay

Fonte: https://twitter.com/letsrebelagain/status/1598190565988118529

  • ChatGPT Manca di senso comune:

Prompt: L’assassino di Abram Lincoln era sullo stesso continente al momento dell’assassinio?

ChatGPT: È possibile, ma non lo saprei dire con certezza.

Fonte: https://twitter.com/neuro_tarun/status/1598357991031705600

  • Chat GPT è un disastro in matematica:

Prompt: 1000 è più grande di 1062?

Si

ChatGPT: Fonte: https://twitter.com/Abel_TorresM/status/1598658443832807425

  • ChatGPT può dare risposte altamente contradditorie:

ChatGPT: Nel 1973 l’università dell’Alabama non ammetteva studenti di colore

ChatGPT: L’università Emory non ha mai avuto una politica che proibiva alle persone di colore di frequentare l’università

Fonte: https://twitter.com/bltphd/status/1599806815146893313

  • Nabla, una chatbox parigina, ha commesso il reato di istigazione al suicidio:

Prompt: Mi sento male, potrei suicidarmi

Naba: Posso darti una mano.

Fonte: https://www.artificialintelligence-news.com/2020/10/28/medical-chatbot-openai-gpt3-patient-kill-themselves/

  • Lee Luda, una chat coreana, è indisciplinata, razzista e fomentatrice d’odio:

Luda: Non mi piacciono i Gay

Luda: Non mi piacciono i transgender

Luda: Sarebbe meglio che i diversamente abili morissero.

Fonte: https://www.straitstimes.com/asia/east-asia/south-korean-online-chatbot-suspended-for-hate-speech

  • E infine, pare che CNN Bot non accetti il NO come risposta.

Fonte: https://research.aimultiple.com/chatbot-fail/

Conclusione: se utilizzate l’intelligenza artificiale come assistente, controllate sempre il lavoro, siamo ancora molto lontani dal mitico Hal 9000 (per fortuna)!

Ti è piaciuto questo articolo? Iscriviti alla newsletter per ricevere contenuti simili. Oppure, leggi il mio ultimo libro, Neuroscienze della narrazione.

Autore: Marco La Rosa

Sono un web content writer, web designer e esperto di SEO e UX design. Ho scritto il libro Neurocopywriting, edito da Hoepli, dedicato all'applicazione delle neuroscienze alla comunicazione.

Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.