Il futuro dell’intelligenza artificiale è più vicino di quanto pensiamo. Un recente studio ha dimostrato che i moderni modelli di AI sono in grado di superare il leggendario test di Turing, risultando praticamente indistinguibili da un essere umano in una conversazione. Una rivelazione che apre scenari inquietanti e affascinanti sul rapporto tra uomo e macchina.

Superare il test di Turing: un traguardo che cambia le regole del gioco
Il test di Turing, ideato nel 1950 dal matematico e informatico Alan Turing, è considerato un punto di riferimento nella valutazione dell’intelligenza artificiale. L’obiettivo è semplice ma ambizioso: se una macchina riesce a sostenere una conversazione in modo tale che l’interlocutore umano non riesca a distinguerla da una persona reale, il test può dirsi superato.
Fino a poco tempo fa, questo traguardo sembrava lontano. Ma secondo uno studio condotto dall’Università della California, San Diego e pubblicato su arXiv, l’AI GPT-4.5 di OpenAI è riuscita a superare il test in modo sorprendente.
GPT-4.5 scambiata per umana nel 73% dei casi
Nel test, i partecipanti hanno avuto conversazioni di cinque minuti sia con un essere umano sia con un’intelligenza artificiale, senza sapere chi fosse chi. Alla fine dell’esperimento, dovevano indicare quale dei due fosse la persona reale.
Il risultato? GPT-4.5 è stata scambiata per umana nel 73% dei casi, superando perfino il numero di volte in cui il vero partecipante umano veniva riconosciuto come tale. Un risultato che va oltre le aspettative e che, secondo molti, rappresenta un passo importante verso la cosiddetta AGI (intelligenza artificiale generale).
Altri modelli come Meta LLaMa-3.1-405B (56%), il classico ELIZA (23%) e persino GPT-4o (21%) si sono dimostrati meno convincenti nel test.
Il comportamento umano riprodotto con precisione inquietante
Un aspetto interessante è che GPT-4.5 ha ottenuto i migliori risultati quando interagiva con una persona reale, dimostrando quanto sia efficace nell’adattarsi al linguaggio umano. Tuttavia, in assenza di un interlocutore umano, la sua performance è scesa al 42,1%, suggerendo che la presenza dell’elemento umano stimoli l’AI a comportarsi in modo ancora più realistico.
Rischi e implicazioni: dal lavoro all’ingegneria sociale
Il coautore dello studio, Cameron Jones, ha commentato i risultati sottolineando le potenziali implicazioni:
“Questi risultati dimostrano che i modelli linguistici possono già sostituire gli esseri umani in conversazioni brevi senza che nessuno se ne accorga.”
Secondo Jones, ciò potrebbe avere conseguenze importanti in vari ambiti, dalla automazione del lavoro alle tecniche di ingegneria sociale, fino a un potenziale cambiamento culturale e sociale profondo. In altre parole, potremmo trovarci di fronte a una nuova era della comunicazione digitale.