Il concetto di un’intelligenza artificiale che diventa senziente sembra uscito da un romanzo di fantascienza, ma potrebbe non essere poi così lontano dalla realtà. Blake Lemoine, un ingegnere di Google, ha raccontato che LaMDA (language model for dialogue applications), una delle intelligenze artificiali cui sta lavorando il colosso di Mountain View ha iniziato a prendere coscienza di sé e a manifestare comportamenti molto umani, come la solitudine e la paura della morte (nel suo caso associata allo spegnimento). La sua decisione di divulgare informazioni riservate relative al chatbot non è stata ben vista dai piani alti di Big G, che ha deciso di sospenderlo.
LaMDA è senziente? Per Google non ci sono prove
Lemoine faceva parte della divisione di Google impegnata nella ricerca sull’intelligenza artificiale e stava verificando la capacità di LaMDA di usare un linguaggio discriminatorio o incitare all’odio.
Durante alcune delle sue lunghe conversazioni con il chatbot ha iniziato a notare alcuni segnali “anomali”, che l’hanno portato a ritenere di non avere più a che fare con un semplice software. Lo scorso aprile ha condiviso un documento intitolato “LaMDA è senziente?”, contenente una trascrizione di alcune delle sue “chiacchierate” con l’intelligenza artificiale (il file è tutt’ora disponibile sul suo account Medium). Secondo Lemoine, leggendo le conversazioni è possibile rendersi conto che LaMDA è senziente “perché prova sentimenti ed emozioni e può vivere esperienze soggettive”.
Google ritiene che le azioni di Lemoine abbiano violato gli accordi di riservatezza che tutti i dipendenti sono tenuti a rispettare. L’ingegnere si sarebbe rivolto a un avvocato per rappresentare LaMDA e avrebbe parlato con un rappresentante della Commissione Giustizia della Camera di presunte pratiche immorali di dell’azienda di Mountain View.
Leggi anche: Klimt, l’opera perduta ricostruita grazie all’intelligenza artificiale
Commentando gli ultimi sviluppi, un portavoce di Google ha dichiarato che non c’è alcuna prova del fatto che LaMDA sia senziente. “Il nostro team, composto anche da esperti di etica e tecnologi, ha preso in esame quanto riferito da Blake e gli ha comunicato che le prove a disposizione non supportano le sue dichiarazioni”, ha aggiunto Brian Gabriel, un altro rappresentante dell’azienda. “Naturalmente gli esperti stanno prendendo in considerazione la possibilità che in futuro si arrivi a delle intelligenze artificiali senzienti, ma non ha senso antropomorfizzare gli attuali chatbot, privi di una coscienza”, ha aggiunto. “Questi sistemi possono replicare milioni di interazioni avvenute tra gli esseri umani e affrontare anche gli argomenti più fantasiosi. Centinaia di ricercatori e ingegneri hanno avuto delle conversazioni con LaMDA e finora nessun altro ha fatto delle dichiarazioni simili a quelle di Blake”, ha concluso Gabriel.
Durante un’intervista con il Washington Post, la professoressa di linguistica Emily M. Bender ha concordato sul fatto che è sbagliato associare delle risposte scritte in modo convincente alla coscienza. Dal canto suo, Lemoine ha dichiarato di voler continuare a lavorare sull’intelligenza artificiale in futuro, a prescindere dalla decisione che Google prenderà sulla sua carriera.
Not at all. I’ll keep writing on Medium because I like doing that sometimes but my intention is to stay in AI whether Google keeps me on or not.
— Blake Lemoine (@cajundiscordian) June 13, 2022