Intelligenza artificiale? Sì, ma regolata. Ecco cosa prevede l’AI Act votato oggi dal Parlamento europeo

L’Ue mira a diventare il primo attore politico a definire un quadro di regole chiaro sul settore, che attrae investimenti e interesse ma anche molte critiche

L’obiettivo è ambizioso: promuovere l’uso dell’intelligenza artificiale cercando al contempo di garantire il rispetto dei diritti fondamentali e limitarne i suoi effetti dannosi. Il Parlamento europeo ha votato oggi il via libera all’AI Act, il testo che racchiude le nuove (potenziali) regole comunitarie per il settore dell’intelligenza artificiale. Il documento è stato approvato a larghissima maggioranza con 499 voti a favore, 28 contrari e 93 astenuti. Si tratta della prima regolamentazione di questo genere al mondo. Per diventare operativa, dovrà ora passare attraverso il cosiddetto “trilogo”, i negoziati a tre con il Consiglio, in rappresentanza dei governi dei Paesi membri, e con la Commissione europea. Una delle novità principali è il divieto totale di utilizzo di tecnologie di riconoscimento biometrico in tempo reale nei luoghi pubblici. Bocciato l’emendamento dei Popolari, che chiedevano di inserire alcune eccezioni per permettere l’uso di telecamere con riconoscimento facciale nelle strade e ai confine dell’Ue per motivi di sicurezza nazionale o nei casi di minori scomparsi. «Oggi tutti gli occhi sono puntati su di noi. Mentre le Big Tech lanciavano l’allarme per le loro creazioni, l’Europa è andata avanti e ha proposto una risposta concreta ai rischi che l’IA sta iniziando a rappresentare», ha commentato Brando Benifei, capogruppo del Pd al Parlamento europeo e co-relatore del provvedimento.


I nuovi divieti

Le nuove norme europee si rivolgono soprattutto a fornitori e operatori dei sistemi di AI, che vanno incontro a nuovi obblighi a seconda del livello di rischio che le loro tecnologie possono generare. Saranno vietati i sistemi di AI che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il punteggio sociale, ossia per classificare le persone in base al loro comportamento sociale o alle loro caratteristiche personali. Vietati anche gli usi intrusivi e discriminatori dell’AI. Un esempio? I sistemi di polizia predittivi (basati su profilazione, ubicazione o comportamenti criminali passati) oppure i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell’ordine nella gestione delle frontiere. Il nuovo testo approvato dall’Eurocamera impedirà anche l’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale. Una pratica che viene considerata in aperta violazione dei diritti umani e del diritto alla privacy.


Le altre novità

Per valutare i diversi livelli di rischio delle tecnologie di AI, il testo approvato dagli eurodeputati prevede un sistema di classificazione. Il rischio non riguarda solo i diritti fondamentali delle persone, ma anche la salute, la sicurezza e l’ambiente. Particolare attenzione è stata posta all’uso di sistemi di intelligenza artificiale usati per influenzare gli elettori e l’esito delle elezioni e i sistemi di raccomandazione utilizzati dalle piattaforme di social media con oltre 45 milioni di utenti. Tutti i sistemi di AI generativa, tra cui anche l’ormai celebre ChatGPT, dovranno rispettare i requisiti di trasparenza richiesti dall’Ue, esplicitando per esempio quali sono i contenuti generati con software di intelligenza artificiale e bloccando la generazione di contenuti illegali. Dovrebbero inoltre essere pubblicate le sintesi dettagliate dei dati protetti dal diritto d’autore utilizzati per l’addestramento.

Leggi anche: