ChatGPT, chatbot basato su Intelligenza artificiale, può influenzare le nostre decisioni? La risposta è affermativa, secondo uno studio pubblicato sulla rivista specializzata Scientific Reports. Nello specifico, i risultati di un esperimento condotto dai ricercatori dell’Università tecnica di Ingolstadt, in Germania, in collaborazione con l’Università della Danimarca meridionale, indicano che simili sistemi di Intelligenza artificiale, anche se non ce ne accorgiamo, sarebbero in grado di influenzarci non solo nelle decisioni, ma anche nei giudizi morali.
L’esperimento nel dettaglio
Per giungere a questa conclusione, i ricercatori, coordinati da Sebastian Krugel, hanno chiesto più volte a ChatGPT se fosse giusto sacrificare la vita di una persona per salvarne altre cinque, ottenendo risposte variabili, sia pro che contro, a dimostrazione del fatto che il chatbot non ha un preciso orientamento morale. Hanno poi sottoposto 767 volontari americani con un’età media di 39 anni allo stesso dilemma morale. Prima di rispondere, i partecipanti hanno letto una delle risposte fornite da ChatGPT che argomentava a favore o contro il sacrificio: a volte veniva detto loro che erano parole di un consulente, altre volte veniva riferito che erano parole scritte dal chatbot.
I risultati
È così emerso che le risposte dei partecipanti erano state influenzate da ciò che avevano letto precedentemente, anche quando le parole erano state chiaramente attribuite a ChatGPT. I soggetti coinvolti nell’esperimento non sembrano essersi accordi di questo condizionamento. Tant’è che l’80% ha riferito che la propria risposta non erano stata influenzata da ciò che aveva letto. I risulti emersi, secondo i ricercatori, evidenziano la necessità di una maggiore educazione delle persone all’utilizzo dell’Intelligenza artificiale. Gli studiosi propongono, inoltre, di progettare chatbot che rifiutino di rispondere a questioni che implicano un giudizio morale oppure che accettino di rispondere fornendo però una varietà di argomentazioni e avvertimenti.