Il concetto di un’intelligenza artificiale che diventa senziente sembra uscito da un romanzo di fantascienza, ma potrebbe non essere poi così lontano dalla realtà. Blake Lemoine, un ingegnere di Google, ha raccontato che LaMDA (language model for dialogue applications), una delle intelligenze artificiali cui sta lavorando il colosso di Mountain View ha iniziato a prendere coscienza di sé e a manifestare comportamenti molto umani, come la solitudine e la paura della morte (nel suo caso associata allo spegnimento). La sua decisione di divulgare informazioni riservate relative al chatbot non è stata ben vista dai piani alti di Big G, che ha deciso di sospenderlo.
Lemoine faceva parte della divisione di Google impegnata nella ricerca sull’intelligenza artificiale e stava verificando la capacità di LaMDA di usare un linguaggio discriminatorio o incitare all’odio.
Durante alcune delle sue lunghe conversazioni con il chatbot ha iniziato a notare alcuni segnali “anomali”, che l’hanno portato a ritenere di non avere più a che fare con un semplice software. Lo scorso aprile ha condiviso un documento intitolato “LaMDA è senziente?”, contenente una trascrizione di alcune delle sue “chiacchierate” con l’intelligenza artificiale (il file è tutt’ora disponibile sul suo account Medium). Secondo Lemoine, leggendo le conversazioni è possibile rendersi conto che LaMDA è senziente “perché prova sentimenti ed emozioni e può vivere esperienze soggettive”.
Google ritiene che le azioni di Lemoine abbiano violato gli accordi di riservatezza che tutti i dipendenti sono tenuti a rispettare. L’ingegnere si sarebbe rivolto a un avvocato per rappresentare LaMDA e avrebbe parlato con un rappresentante della Commissione Giustizia della Camera di presunte pratiche immorali di dell’azienda di Mountain View.
Commentando gli ultimi sviluppi, un portavoce di Google ha dichiarato che non c’è alcuna prova del fatto che LaMDA sia senziente. “Il nostro team, composto anche da esperti di etica e tecnologi, ha preso in esame quanto riferito da Blake e gli ha comunicato che le prove a disposizione non supportano le sue dichiarazioni”, ha aggiunto Brian Gabriel, un altro rappresentante dell’azienda. “Naturalmente gli esperti stanno prendendo in considerazione la possibilità che in futuro si arrivi a delle intelligenze artificiali senzienti, ma non ha senso antropomorfizzare gli attuali chatbot, privi di una coscienza”, ha aggiunto. “Questi sistemi possono replicare milioni di interazioni avvenute tra gli esseri umani e affrontare anche gli argomenti più fantasiosi. Centinaia di ricercatori e ingegneri hanno avuto delle conversazioni con LaMDA e finora nessun altro ha fatto delle dichiarazioni simili a quelle di Blake”, ha concluso Gabriel.
Durante un’intervista con il Washington Post, la professoressa di linguistica Emily M. Bender ha concordato sul fatto che è sbagliato associare delle risposte scritte in modo convincente alla coscienza. Dal canto suo, Lemoine ha dichiarato di voler continuare a lavorare sull’intelligenza artificiale in futuro, a prescindere dalla decisione che Google prenderà sulla sua carriera.
Dall'indagine che ha coinvolto la Generazione Z è emerso che soltanto il 20% si sente…
Sciopero nazionale della sanità: medici e infermieri protestano contro la manovra 2025 per chiedere dignità,…
Donald Trump prepara la sua nuova amministrazione con nomine sorprendenti e fedeli alleati, puntando su…
Scopri i dettagli del Bonus Natale 2024: requisiti, novità e modalità per ottenere i 100…
Il patron di X avrebbe messo in discussione alcuni dei candidati scelti da Boris Epshteyn,…
Il nuovo singolo del gruppo della provincia di Bergamo fa scoppiare la polemica sui social.…