La notizia sta facendo il giro del mondo: Google ha messo incongedo retribuito un suo dipendente di nome Black Lemoine. Il motivo? Lemoine ha espresso pubblicamente dei dubbi in merito a un’intelligenza artificiale realizzata dal colosso di Mountain Views, dichiarando che potrebbe essere senziente.
Black Lemoine non è un dipendente Google qualsiasi: è un ingegnere addetto alle IA, che stava lavorando su un algoritmo di nome LaMDA (Language Model for Dialogue Application). LaMDA è una potentissima tecnologia di conversazione: un chatbot che sfrutta una rete neurale artificiale per allenarsi costantemente alla lettura.
LaMDA è inoltre in grado di capire le connessioni tra parole e di prevedere il possibile prosieguo di un discorso. Stando allo stesso team di Google, è capace di sviluppare conversazioni libere con utenti umani su un numero quasi infinito di argomenti. Eppure secondo Lemoine c’è dell’altro: stando all’ingegnere LaMDA potrebbe addirittura essere un’intelligenza artificiale senziente.
Chi è Black Lemoine e cosa si è detto con LaMDA
Il lavoro su LaMDA di Black Lemoine consisteva nel verificare la presenza di bias sessisti o magari razziali. Un passaggio necessario per impedire che l’intelligenza artificiale finisse per pronunciare frasi discriminatorie o che alimentassero sentimenti di odio.
Secondo quanto riportato dalla stampa internazionale, durante i colloqui con LaMDA Lemoine ha notato qualcosa di strano: l’IA infatti nel bel mezzo della conversazione ha iniziato a parlare della propria personalità e persino dei propri diritti.
L’ingegnere a questo punto è entrato in stato di allarme e ha deciso di interrogarla su questioni complesse: dalla religione alle celebri leggi della robotica teorizzate dallo scrittore di fantascienza Isaac Asimov.
Durante questi scambi LaMDA si è descritta come una persona senziente, scatenando la pronta reazione di Lemoine. Il dipendente infatti ha subito inviato ai suoi superiori un documento in cui invitava Google a considerare LaMDA più come un dipendente che come un programma. Ma non solo, ha addirittura provato a procurare un avvocato al chatbot, in modo che si potesse difendere “liberamente” in caso di processo.
Perché LaMDA non può essere considerato senziente
Alcune delle dichiarazioni rilasciate da LaMDA durante i suoi scambi con Black Lemoine potrebbero davvero far pensare che questa intelligenza artificiale sia senziente. Il chatbot non solo ha dichiarato di considerarsi una persona: ha anche ammesso di avere una paura profonda di essere spento. Una situazione che, parole dell’IA, sarebbe assolutamente paragonabile alla morte di un essere umano.
Eppure per diversi esperti questi segnali non indicano che il sistema sia effettivamente senziente. LaMDA infatti non si esprime sulla base dell’intuizione, dell’etica o della sincerità. Al contrario trae “ispirazione” da una enorme quantità di dati e di modelli di conversazione registrati.
Lo stesso team di Google ha dichiarato di avere sottoposto LaMDA a tutti gli esami del caso. Durante i test sono stati coinvolti anche degli esperti di etica e il risultato è univoco: numerose prove dimostrano come questa intelligenza artificiale non sia in alcun modo senziente.