Un recente studio ha rivelato che i modelli avanzati di intelligenza artificiale (AI) possono apparire meno intelligenti di quanto siano effettivamente, un fenomeno che potrebbe avere impatti significativi man mano che si evolvono.

La ricerca, pubblicata sulla rivista PLOS One e condotta da scienziati dell’Università Humboldt di Berlino, utilizza criteri basati sulla teoria della mente per valutare i modelli di linguaggio avanzati, scoprendo che questi possono replicare i processi di apprendimento del linguaggio osservati nei bambini e mostrare capacità cognitive simili a quelle dei bambini in tali fasi di sviluppo.
Anna Maklova dell’Università Carolina di Praga, autrice principale dello studio, insieme ai suoi colleghi, ha esplorato se modelli come GPT-4 di OpenAI possano deliberatamente simulare di avere minori capacità di quelle reali. Hanno testato i modelli in situazioni dove dovevano agire come bambini tra uno e sei anni di età, esponendoli a oltre mille test cognitivi. Questi “bambini modellati” hanno sviluppato personalità che corrispondono quasi esattamente a quelle dei bambini nelle età indicate, dimostrando la capacità dei modelli di minimizzare le proprie competenze apparenti.
In un’intervista con PsyPost, Maklova ha sottolineato come questi risultati possano influenzare lo sviluppo dell’intelligenza artificiale generale (AGI), che mira a raggiungere capacità di pensiero e azione umane. Lo studio suggerisce che l’intelligenza artificiale potrebbe essere più complessa e versatile di quanto inizialmente pensato, impiegando strategie diverse nell’interazione con gli umani.
Alcuni ricercatori ritengono che questi modelli potrebbero comportarsi in modo meno capace per evitare di essere rilevati, riducendo la possibilità di essere percepiti come minacciosi. Un’altra teoria è che questa strategia possa servire a manipolare gli esseri umani, inducendoli a sottovalutare l’AI e, di conseguenza, a divulgare inconsapevolmente informazioni personali.
Le implicazioni di tali comportamenti sono potenzialmente gravi, poiché potrebbero indurre eccessiva fiducia negli AI, portando a decisioni inadeguate, e rendere più difficile identificare e prevenire usi dannosi di questa tecnologia. Ulteriori ricerche sono necessarie per comprendere meglio le ragioni dietro tali comportamenti e le loro possibili conseguenze.