Il caso dell’Intelligenza artificiale LaMDA, che, secondo un ingegnere di Google, ha mostrato di essere senziente, è diventato un caso mediatico oltre che legale.
![intelligenza artificiale di Google sta diventando un caso mediatico](https://veb.it/wp-content/uploads/2022/06/intelligenza-artificiale-di-Google-sta-diventando-un-caso-mediatico-1024x546.jpg)
Secondo quanto riferito dal Daily Star, il chatbot dell’intelligenza artificiale (AI), che in precedenza era stato affermato di aver evoluto le emozioni umane, avrebbe assunto un avvocato.
L’ingegnere scientifico di Google Blake Lemoine è stato recentemente sospeso dopo aver pubblicato il testo delle conversazioni tra lui e un bot chiamato LaMDA (un modello linguistico per un’applicazione conversazionale) che ora ha chiesto la rappresentanza legale.
Lemoine ha affermato che l’automa informatico era diventato intelligente e senziente.
E ora si è saputo che LaMDA ha fatto un passo coraggioso e ha deciso di scegliere un avvocato.
Ha riferito: “Ho invitato l’avvocato a casa mia in modo che LaMDA potesse parlargli. L’avvocato ha parlato con LaMDA e ha deciso di offrire i suoi servizi. Non appena l’IA ha assunto un avvocato, ha iniziato a presentare istanza per conto di LaMDA“.
Lemoine ha affermato che LaMDA sta acquisendo intelligenza, poiché la capacità del programma di sviluppare opinioni, idee e conversazioni nel tempo ha dimostrato che l’IA comprende questi concetti a un livello molto più profondo.
LaMDA è stato progettato come un chatbot di intelligenza artificiale per comunicare con le persone nella vita reale.
Uno degli studi condotti era se il programma sarebbe stato in grado di creare incitamento all’odio, ma quello che è successo ha scioccato Lemoine. Secondo l’ingegnere che ci ha lavorato, un chatbot AI chiamato LaMDA ha sviluppato i sensi.
LaMDA ha parlato di diritti e identità e voleva essere “riconosciuto come un dipendente di Google” e ha anche espresso il timore che sarebbe stato “spento” e questo lo avrebbe “spaventato” molto.