Stop a ChatGPT in tutta Italia, il Garante della Privacy blocca l’app d’intelligenza artificiale: «Non tutela i dati personali né i minori»

La società ha ora 20 giorni per rispondere ai rilievi dell’Authority. Rischia una multa da 20 milioni di euro o fino al 4% del fatturato globale annuo

Il Garante per la protezione dei dati personali ha disposto con effetto immediato lo stop Stop a ChatGPT, l’applicazione di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane, finché non sarà assicurato il rispetto della disciplina della privacy. Il Garante ha contestualmente aperto un’istruttoria nei confronti di OpenAI, la società Usa che ha sviluppato e gestisce la piattaforma. Nel provvedimento, il Garante rileva la mancanza di una informativa agli utenti e a tutti gli interessati sul modo in cui i cui dati vengono raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali.


La questione anagrafica e la sanzione

Come testimoniato dalle verifiche effettuate, riferisce il Garante in una nota, le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto. Lo scorso 20 marzo la società aveva subito una perdita di dati (data breach) riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento. OpenAI non consente di utilizzare il servizio ai minori di 13 anni. Cionostante, secondo il Garante, i filtri per verificare l’età non sono sufficienti. Ciò vuol dire – continua l’autorità – che i minori sono esposti a risposte che non sono considerate idonee alla fascia anagrafica. La società ha ora 20 giorni per comunicare le misure che intende intraprendere per adeguarsi alle richieste del Garante. In caso contrario, le verrà comminata una multa di 20 milioni di euro, o fino al 4% del fatturato globale annuo.


Leggi anche: