Negli ultimi mesi, il fenomeno dell’Intelligenza Artificiale è entrato a pieno diritto nel dibattito pubblico. Mentre sui social spopolano i prodigi visivi dei programmi che creano immagini partendo da descrizioni testuali (come la sposa-robot di Elon Musk, o la foto di Papa Francesco che indossa cappotti di lusso), e quelli che creano video surreali (vedi alla voce: personaggi di Harry Potter trasposti nella Sicilia del dopoguerra), nelle stanze del potere ci si interroga su come gestire adeguatamente il fenomeno. Tra i maggiori sostenitori della necessità di una regolamentazione globale dell’IA spiccava Sam Altman, Ceo di OpenAI, ovvero la società che ha sviluppato ChatGPT.
Ma secondo quanto riporta il Time, anche questo conclamato impegno sarebbe stato artificiale. O quantomeno, incoerente con il suo operato dietro le quinte. Secondo quanto emerso dai documenti visionati dal Time, infatti, OpenAI avrebbe fatto pressioni affinché elementi significativi dell’AI Act dell’Ue (ovvero la legislazione sull’IA più completa al mondo), venissero annacquati in modo da ridurre l’onere normativo per l’azienda. Il testo finale approvato dal Parlamento Europeo lo scorso 14 giugno, infatti, avrebbe risentito di diverse modifiche proposte dalla società. Ora il documento procederà a un round finale di negoziati prima di concludere il suo iter a gennaio.
Le pressioni
Nello specifico, OpenAI avrebbe insistentemente ribadito ai funzionari europei che due dei suoi sistemi (GPT-3, il precursore di ChatGPT, e il generatore di immagini Dall-E 2) non avrebbero dovuto essere considerati «ad alto rischio». Etichetta che si sarebbe trascinata dietro severe implicazioni legali, tra cui il rispetto dei requisiti di trasparenza, tracciabilità e supervisione umana. Ma, sostiene la società, l’alto rischio non è intrinseco ai programmi, i quali possiedono semplicemente «capacità che possono essere potenzialmente impiegate in casi d’uso ad alto rischio».
Un’argomentazione analoga a quella sollevata da Microsoft, che ha investito 13 miliardi di dollari nel suo laboratorio di intelligenza artificiale, e da Google. Entrambe le società sostengono infatti che l’onere di conformarsi ai requisiti più severi della legge dovrebbe ricadere sulle aziende che decidono di applicare l’intelligenza artificiale a un caso d’uso ad alto rischio, non su quelle che si limitano a costruire i sistemi. Altman era persino arrivato a minacciare (salvo poi ritrattare) che Open AI avrebbe potuto considerare la cessazione delle sue attività in Europa, se messa nelle condizioni di non poter rispettare il Regolamento.
Le modifiche
In ogni caso, le pressioni sembrano essere andate a buon fine. A differenza delle bozze precedenti, la formulazione finale approvata dal Parlamento Ue non contiene la formulazione secondo cui i sistemi di IA generici dovrebbero essere considerati intrinsecamente ad alto rischio. Viene piuttosto richiesto ai fornitori dei sistemi di rispettare requisiti più blandi, tra cui la prevenzione della generazione di contenuti illegali, rivelando se un sistema è stato addestrato su materiale protetto da copyright, e l’esecuzione di valutazioni del rischio.
Sparito anche un emendamento, contestato da OpenAI, che avrebbe classificato i sistemi di intelligenza artificiale generativa «ad alto rischio» se produttori di testi o immagini che sarebbero potuti «apparire falsamente a uno spettatore come generati dall’uomo e autentici». A detta di OpenAI, una misura che avrebbe potuto far considerare i propri modelli «inavvertitamente» ad alto rischio.
Il libro bianco
A giugno 2022, tre membri dello staff di OpenAI hanno incontrato per la prima volta a Bruxelles i funzionari della Commissione europea per discutere della questione. Una fonte interna alla Commissione ha raccontato che la società temeva «un’eccessiva regolamentazione», senza specificare il tipo di regolamento che avrebbe reputato adeguato. La risposta è arrivata tre mesi dopo, nel settembre 2022, in un documento di sette pagine inedito inviato ai funzionari della Commissione e del Consiglio dell’UE, intitolato «OpenAI White Paper on the European Union’s Artificial Intelligence Act». «Fondamentalmente hanno detto: affidati a noi per autoregolamentarci», ha commentato Daniel Leufer, analista politico senior specializzato in AI presso l’ufficio di Bruxelles di Access Now, dopo aver esaminato il testo.
Oltre alla sopracitata questione del rischio, OpenAI ha infatti sostenuto la necessità di altri emendamenti alla legge, per consentire ai fornitori di intelligenza artificiale di aggiornare i propri sistemi per motivi di sicurezza senza dover prima sottoporsi a una valutazione da parte dei funzionari dell’UE. Ha anche sostenuto che determinati usi dell’IA generativa nell’istruzione e nell’occupazione non avrebbero dovuto essere considerati «ad alto rischio». Dopo che OpenAI ha condiviso queste preoccupazioni lo scorso settembre, è stata aggiunta alla legge un’esenzione che «soddisfa pienamente i desideri di OpenAI di rimuovere dall’ambito [di intervento] i sistemi che non hanno un impatto materiale su, o che semplicemente aiutano, il processo decisionale [umano]», ha commentato ancora Leufer.
«Mascherano il proprio interesse finanziario»
«OpenAI, come molte aziende Big Tech, ha utilizzato l’argomento dell’utilità e del beneficio pubblico dell’IA per mascherare il proprio interesse finanziario ad annacquare la regolamentazione», ha commentato al Time Sarah Chander, esperta di legge e consulente politica senior presso l’European Digital Rights. Un portavoce della società ha ribattuto: «Continuiamo a impegnarci con i responsabili politici e a sostenere l’obiettivo dell’UE di garantire che gli strumenti di intelligenza artificiale siano costruiti, implementati e utilizzati in sicurezza ora e in futuro».
Open AI avrebbe incontrato i funzionari europei anche nel marzo di quest’anno. Secondo un verbale ufficiale dell’incontro tenuto dalla Commissione Europea, in quell’occasione avrebbe effettuato una dimostrazione delle caratteristiche di sicurezza di ChatGPT. Avrebbero inoltre rassicurato sul fatto che «le istruzioni per l’IA possono essere adattate in modo tale da rifiutarsi di condividere, ad esempio, informazioni su come creare sostanze pericolose». Ma questo non è sempre vero. I ricercatori hanno dimostrato che è possibile indurre il sistema a bypassare i suoi filtri di sicurezza per rispettare determinate istruzioni. Ad esempio, scrivere e-mail di phishing o fornire ricette per la fabbricazione di sostanze pericolose.
Leggi anche: