ChatGPT, la difesa di Open Ai sulla privacy: «Non usiamo l’intelligenza artificiale per profilare le persone. Proteggere i minori una delle priorità»

«Prima di rilasciare qualsiasi nuovo sistema conduciamo test rigorosi e costruiamo ampi piani di sicurezza», ha continuato l’organizzazione sviluppatrice del botchat in una lettera aperta. Ieri un vertice con il Garante della privacy italiano

«Riconosciamo che come qualsiasi altra tecnologia questi strumenti comportano rischia reali, per questo lavoreremo per garantire sicurezza a tutti i livelli». Così Open AI, l’organizzazione sviluppatrice di ChatGPT, rassicura sull’intelligenza artificiale pochi giorni fa bloccata per l’Italia dal Garante della privacy. In una lettera ufficiale, la società ribadisce l’impegno di mantenere la sua tecnologia «sicura e vantaggiosa» non negando i pericoli su dati e protezione al centro del dibattito. E’ stato il garante italiano lo scorso 31 marzo a richiamare l’attenzione sulla tutela della privacy messa a rischio dal chatbot, bloccando ufficialmente l’app di intelligenza artificiale sul territorio nazionale. Una decisione a sorpresa che ora sembra far riflettere anche altri Paesi. «Non utilizziamo i dati per vendere i nostri servizi, pubblicità o profilare le persone», ha cercato di chiarire Open AI nel testo diffuso, «li usiamo invece per rendere i nostri modelli più utili. ChatGPT, ad esempio, migliora con le conversazioni che, di volta in volta, intrattiene con gli utenti». La lettera aperta della società americana dal titolo Il nostro approccio alla sicurezza dell’AI fornisce anche dettagli sulla modalità in cui l’app proteggerebbe la privacy degli utenti, minori compresi e su come riesca a ridurre il rischio di riposte errate.


Per azzerare il potenziale di modelli che generino contenuti dannosi per i bambini, Open AI spiega come al caricamento di materiale pedopornografico da parte di un utente negli strumenti di creazione o lettura di immagini, il sistema abbia la capacità di bloccare e segnalare al National Center for Missing and Exploited Children quanto accaduto. «Prima di rilasciare qualsiasi nuovo sistema, conduciamo test rigorosi, coinvolgiamo esperti esterni, lavoriamo per migliorare il comportamento del modello e costruiamo ampi sistemi di sicurezza e monitoraggio», rassicura la società, che il 5 aprile ha avuto un incontro con il Garante proprio sul tema della protezione dei dati. «Dopo aver terminato lo sviluppo del nostro ultimo modello, Gpt-4, abbiamo trascorso più di 6 mesi per renderlo più sicuro e allineato, prima di rilasciarlo pubblicamente». L’organizzazione parla di rigorose valutazioni a cui sottoporre «i potenti sistemi di AI», ribadendo la sua disponibilità a collaborare con i governi «sulla forma migliore che tale regolamentazione potrebbe assumere».


Leggi anche: