Nei giorni in cui ChatGpt compie un anno, i leader mondiali moltiplicano gli sforzi difronte alle incognite poste dallo sviluppo dirompente dell’Intelligenza artificiale. Va in questo senso l’accordo promosso da Regno Unito e Stati Uniti e siglato da 18 Paesi, Italia inclusa. Le autorità responsabili della cybersicurezza di Washington e Londra hanno unito le forze per realizzare un insieme di linee guida comuni, che mirano a innalzare il livello della cybersicurezza e mitigare le minacce legate alla crescente diffusione dell’IA. Si tratta del primo accordo internazionale per un uso sicuro dell’Intelligenza Artificiale.
L’obiettivo principale del protocollo di sicurezza è assistere gli sviluppatori nell’implementazione di sistemi di Intelligenza artificiale etici e sicuri sin dalla fase di progettazione, valutando la sicurezza lungo l’intero ciclo di vita, dalla fase iniziale di sviluppo fino alle alla distribuzione e all’aggiornamento. In una nota Londra spiega che d’ora in poi la cybersicurezza sarà una condizione essenziale, e non un fattore secondario, nello sviluppo dell’IA. Le linee guida stabiliscono quattro aree chiave di valutazione della sicurezza: la progettazione, lo sviluppo, l’implementazione e le fasi di funzionamento e manutenzione.
“Sappiamo che l’Intelligenza artificiale sta procedendo a una velocità fenomenale e c’è bisogno di un’azione concertata a livello internazionale tra e governi e industria per stare al passo”, ha commentato Lindy Cameron, responsabile della National Cyber Security Centre, l’agenzia per la cybersicurezza del Regno Unito, che ha guidato gli sforzi nella messa punto delle linee guida. “Segnano un significativo passo in avanti nella comprensione dei rischi e nello sviluppo di una strategia di mitigazione per fare in modo che la sicurezza non sia un aspetto marginale ma un requisito fondamentale”. Uno spazio cibernetico al riparo da minacce “ci aiuterà a sviluppare in sicurezza le favolose opportunità di questa tecnologia”.
Le linee guida per la sicurezza dell’Intelligenza artificiale
Il documento è stato elaborato da esperti governativi e del settore privato, provenienti da 18 Paesi, dopo l’lA Safety Summit, la prima conferenza internazionale sull’Intelligenza Artificiale, ospitato da Londra dal primo al 2 novembre.
Oltre a Regno Unito e Stati Uniti, hanno contribuito alla stesura delle linee guida Australia, Canada, Cile, Corea del Sud, Estonia, Francia, Germania, Giappone, Israele, Italia, Nigeria, Norvegia, Nuova Zelanda, Polonia, Repubblica Ceca e Singapore.
“L’Intelligenza artificiale è una sfida a cui l’Agenzia non vuole e non può sottrarsi. Per questo abbiamo aderito con convinzione a questa iniziativa. è una sfida che può essere vinta solo tutti assieme: dobbiamo mettere a disposizione le migliori energie, intellettuali e strumentali del nostro Paese e di tutti gli altri Paesi che si apprestano ad affrontare, a partire dal prossimo G7 a guida italiana, questa impresa così altamente impegnativa per l’intera umanità“, ha detto Bruno Frattasi, direttore generale dell’Agenzia per la cybersicurezza nazionale dell’Italia.
IA Act, in stallo il regolamento dell’Ue
Intanto l’AI Act, il regolamento dell’Unione europea sull’Intelligenza artificiale, la prima legge al mondo del genere, rischia una battuta d’arresto con l’approvazione destinata a slittare al nuovo anno. A mettere i bastoni tra le ruote di un negoziato già complesso, Italia, Francia e Germania che in un documento congiunto hanno espresso la propria contrarietà a introdurre nel provvedimento norme sui modelli più potenti di Intelligenza artificiale come GPT-4, alla base del chatbot ChatGPT.
Sul punto, uno dei più spinosi delle trattative che vedono coinvolte le istituzioni europee, i tre big dell’Ue suggeriscono di scegliere la via dell’autoregolamentazione attraverso codici di condotta per gli sviluppatori di IA. E questo per non gravare le imprese di eccessivi oneri amministrativi che soffocherebbero l’innovazione in un settore cruciale per il futuro. Un tema caro soprattutto al presidente francese Emmanuel Macron, che nei giorni scorsi aveva esortato a elaborare una “regolamentazione non punitiva per preservare l’innovazione“.
Alla ricerca di un equilibrio tra sicurezza e innovazione
Nella ricerca di un delicato equilibrio tra progresso e tutela dei diritti umani, spetta al Parlamento europeo puntare i piedi. “Non siamo disposti ad accettare autoregolamentazioni light per i modelli più potenti”, spiega Brando Benifei, capodelegazione del Partito democratico al Parlamento Europeo e relatore dell’AI Act, aprendo tuttavia alla possibilità di limitare il campo di applicazione di questa specifica regolamentazione a modelli a uso generale.
I codici di condotta non sono sufficienti, sostiene l’eurodeputato dem. Basti pensare alla vicenda di OpenAI che “ha mostrato tutta l’instabilità anche della governance delle imprese sviluppatrici di modelli potenti, che comportano cioè un rischio sistemico“. È dunque imperativo introdurre “obblighi chiari” e “sanzionabili”, sostiene Benifei che critica la proposta di Roma, Parigi e Berlino perché “non c’è nessun incentivo a rispettare le regole auto-attribuite”.
A minare il campo verso la chiusura del dossier c’è anche la questione dell’uso dell’IA nell’ambito della sicurezza nazionale, su cui gli Stati dell’Ue chiedono delle ampie deroghe rispetto all’impostazione più restrittiva del Parlamento. La conclusione dell’accordo sull’AI Act, attesa per il 6 dicembre, dipenderà dallo “sforzo che farà il Consiglio Ue di trovare un punto di caduta sufficientemente ambizioso”.
In attesa del via libera e all’attuazione dell’AI Act, gli Stati non stanno però con le mani in mano. Un segnale in questo senso arriva dal Garante per la protezione dei dati personali, che ha avviato un’indagine conoscitiva su siti web pubblici e privati per verificare l’adozione di misure di sicurezza adeguate a impedire la raccolta massiva di dati personali, lo scraping, per l’addestramento degli algoritmi di IA da parte di soggetti terzi. A seguito dell’indagine conoscitiva, l’Autorità potrà adottare i necessari provvedimenti, anche in via d’urgenza.
ChatGpt compie un anno
Il 30 novembre scorso l’Intelligenza artificiale generativa di OpenAI ha compiuto un anno: dal lancio al pubblico del modello 3.5 fino alla clamorosa cacciata del fondatore Sam Altman dai ranghi dell’azienda madre di ChatGpt, poi tornato all’ovile. Negli ultimi 12 mesi il chatbot per eccellenza ha raggiunto il record di 100 milioni di utenti attivi al mese e si è evoluta nel quarto modello. Uno strumento potente, dalle tante incognite, che i leader mondiali stanno cercando di regolamentare per mitigare i rischi di uno sviluppo impetuoso e incontrollato.
L’arrivo dirompente dirompente sulla scena di ChatGpt ha innescato una nuova corsa all’oro, con i concorrenti, da Google a Microsoft, che hanno messo l’acceleratore per stare al passo con OpenAI.