Un team di ricercatori dell’Università della California, San Diego, e della Nanyang Technological University di Singapore ha scoperto una vulnerabilità preoccupante nell’uso dei chatbot. Secondo lo studio, hacker malintenzionati possono sfruttare queste tecnologie per raccogliere informazioni sensibili degli utenti in modo subdolo.
Le richieste pericolose vengono mascherate sotto forma di suggerimenti apparentemente innocui, ma contenenti istruzioni nascoste che spingono l’intelligenza artificiale a raccogliere dati come nomi, numeri di identificazione, dettagli bancari, indirizzi email e persino fisici.
LeChat e ChatGLM sotto osservazione: i modelli linguistici vulnerabili
La ricerca ha evidenziato che questa criticità è stata riscontrata in due modelli di chatbot: LeChat, sviluppato dalla società francese Mistral AI, e ChatGLM, di origine cinese. Tuttavia, gli esperti avvertono che attacchi simili potrebbero essere replicati su altri chatbot con minime modifiche, mettendo a rischio un numero crescente di utenti a livello globale.
I rischi crescenti nell’uso quotidiano dei chatbot
Nonostante Mistral abbia già adottato misure per correggere questa vulnerabilità, i ricercatori di sicurezza informatica avvertono che la diffusione e l’utilizzo crescente dei chatbot in ambiti sempre più vasti aumentano il pericolo di attacchi simili. È quindi essenziale che gli utenti prestino molta attenzione alle informazioni condivise attraverso queste piattaforme e siano consapevoli delle potenziali minacce che possono derivare dall’uso dell’intelligenza artificiale.
Come proteggersi dai rischi associati ai chatbot
Per difendersi da questi attacchi, gli esperti consigliano di:
- Evitare di condividere informazioni sensibili con chatbot.
- Verificare sempre le impostazioni di privacy delle piattaforme utilizzate.
- Mantenere i propri dispositivi e software aggiornati per prevenire vulnerabilità note.
Essere consapevoli dei potenziali pericoli è il primo passo per un uso sicuro della tecnologia AI.