Perché il Garante della Privacy ha bloccato ChatGPT: «Il rischio è inondare il web di fake news»

Pasquale Stanzone spiega le perplessità dell’Authority

ChatGPT non ha un servizio di controllo dell’età. Avverte che il servizio è riservato a chi ha più di 13 anni ma non verifica chi vi accede. Ma soprattutto: con le fake news può limitare le nostre libertà. Per questo il Garante della Privacy ha bloccato l’applicazione di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane, «finché non sarà assicurato il rispetto della disciplina». Pasquale Stanzione oggi spiega in un’intervista a Repubblica le perplessità dell’Authority. «Abbiamo potuto accertare il fine del machine learning. Il database che hanno costruito, e che è fermo al 2021, serve allo scopo di addestrare l’algoritmo di intelligenza artificiale a rispondere alle richieste degli utenti. Migliorando così la potenza di calcolo», dice Stanzone.


Il funzionamento

Un tema sollevato anche da Stefano Zanero nell’intervista ad Open: «Dovremmo usare il blocco come spunto per riflettere su delle tecnologie che hanno degli evidenti ed esclusivi vantaggi dal punto di vista tecnico e scientifico, ma anche dei difetti che nell’entusiasmo delle prime analisi erano sfuggiti». Ma per il garante quello che fa ChatGPT non è paragonabile a Google: «Il machine learning di ChatGPT non è legittimato da presupposti giuridici. E può generare bias cognitivi perché il database è di due anni fa e quindi si riscontrano inesattezze nelle risposte che l’algoritmo fornisce». Stanzone dice che l’Autorità ha inviato una serie di quesiti a OpenAI, che ha venti giorni di tempo per rispondere. Intanto si schiera con Elon Musk, che ha chiesto una moratoria per l’intelligenza artificiale: «Fa molto riflettere, soprattutto sulla parte in cui richiama alla necessità di un governo antropocentrico, democratico e sostenibile (e, per quanto riguarda l’Europa, conforme ai suoi valori) dell’intelligenza artificiale, che non può che presupporre una cornice regolatoria adeguata e fondata sulla centralità dell’essere umano».


Le fake news

Ma c’è un altro pericolo che sottolinea il Garante: quello di inondare il web di fake news. «In regimi non democratici questo rischio è sicuramente concreto e, direi, preoccupante: la potenza di calcolo posta al servizio di Paesi che non possano dirsi davvero Stati di diritto rischia di avere un effetto deflagrante sulla libertà delle persone. Se allarghiamo il discorso all’uso dell’intelligenza artificiale in contesti bellici, gli effetti sono anche peggiori», dice. E nel colloquio con Fabiano Tonacci e Giuliano Foschini aggiunge che anche altre autorità europee hanno acceso un faro su ChatGPT: «I neurodiritti, non necessariamente nuovi ma anche desunti da quelli già sanciti, devono, allora, servire a salvaguardare quel nucleo intangibile della persona, presupposto ineludibile di libertà, che è libera autodeterminazione».

Leggi anche: