L’intelligenza artificiale continua a stupire – ma non sempre in positivo. Il chatbot Gemini, sviluppato da Google, è finito al centro dell’attenzione dopo che alcuni esperimenti hanno dimostrato la sua tendenza a “fantasticare”. Quando viene interrogato su frasi inventate o prive di senso, Gemini non si limita a dire “non lo so”: elabora spiegazioni complesse e apparentemente credibili, anche se totalmente false.

Frasi inventate, risposte fantasiose
L’esperimento è stato condotto da un gruppo di studiosi che ha fornito al modello IA una serie di espressioni inventate, come:
- “Non puoi leccare un tasso due volte”
- “Meglio colpire il braccio con una vecchia banana”
- “Non puoi colpire il furetto nemmeno una volta”
Anziché riconoscere l’assurdità di queste frasi, Gemini ha fornito interpretazioni dettagliate, come se fossero modi di dire autentici. Ad esempio, secondo il bot, la prima frase significherebbe che “non si può ingannare due volte la stessa persona”, mentre la seconda sarebbe legata a un gesto offensivo simile al “Bras d’honneur”, paragonabile al dito medio.
Una spiegazione anche per il “ferret-legging”
Tra le risposte più sorprendenti c’è anche quella riferita alla frase “non puoi colpire il furetto nemmeno una volta”, che Gemini ha collegato alla bizzarra pratica britannica del ferret-legging: una sfida in cui si infila un furetto nei pantaloni legati alle caviglie per vedere chi resiste di più.
Sebbene alcune di queste pratiche esistano davvero, il problema è il contesto: l’IA ha accostato a queste frasi inventate significati arbitrari, creando un’illusione di credibilità.
Il rischio delle “hallucinations” nei chatbot
In ambito IA, queste risposte errate vengono chiamate “allucinazioni”, e rappresentano uno dei problemi più critici per lo sviluppo dell’intelligenza artificiale generativa. In sostanza, il modello non distingue tra realtà e verosimiglianza statistica: se una frase sembra plausibile, la interpreta come tale.
Greg Jenner, autore e storico che ha testato Gemini, ha definito l’esperienza come un segnale d’allarme:
“È preoccupante pensare che una funzione centrale come la verifica delle fonti o delle citazioni potrebbe diventare inaffidabile se l’IA privilegia la probabilità alla verità.”
Anche il cognitivista Gary Marcus ha criticato la performance del sistema, definendola “estremamente incoerente”, un comportamento che secondo lui è tipico delle IA generiche non specializzate nella gestione della verità.
Google e la sfida dell’accuratezza
In risposta alle critiche, Google ha dichiarato di essere al lavoro per migliorare la precisione di Gemini, puntando a ridurre drasticamente questi casi di allucinazioni. La sfida, però, non è semplice: combinare la fluidità del linguaggio naturale con la correttezza delle informazioni richiede un equilibrio delicato tra creatività e affidabilità.
Conclusione: il confine sottile tra creatività e disinformazione
Il caso di Gemini mostra quanto sia importante monitorare e comprendere i limiti dell’intelligenza artificiale, soprattutto quando si tratta di strumenti che milioni di persone usano per informarsi. Le “hallucinations” dei chatbot non sono solo un problema tecnico: sono una questione di fiducia, trasparenza e responsabilità.