Intelligenza artificiale: chi controlla gli algoritmi controllerà anche noi

Le società tecnologiche stanno cercando di orientare la ricerca e la regolamentazione sull’Intelligenza artificiale a proprio vantaggio. Ad affermarlo, sulla rivista «Nature» è Yochai Benklerl, codirettore del Berkman Klein Center for Internet & Society presso l’Università di Harvard

Il 10 maggio saranno discussealla National science foundation (Nsf) diverse proposte nell’ambito di un programma volto a stendere delle linee guida per una applicazione più equa dell’Intelligenza artificiale, con la collaborazione di Amazon. Intanto l’Unione europea ha pubblicato le sue linee guida, motivate da diversi problemi etici che si pongono quando certe decisioni, prima prese degli umani, vengono lasciatealla gestione degli algoritmi, tanto che si è parlato di un vero e proprio codice etico contro i pericoli dell’intelligenza artificiale.

Yochai Benklerl fa notare nel suo articolo su Nature che tutto questo avviene senza che venga creata una regolamentazione vera e propria da parte dei legislatori, tanto che comincia a essere usata la formula critica di «lavaggio etico», ovvero i buoni propositi etici come sostituti di una vera regolamentazione.Esempi di questo sono stati i tentativi di Google di costituire un comitato etico sull’intelligenza artificialepoi chiuso nel giro di una settimanae quello di Facebook che ha investito 7,5 milioni di dollari per creare un centro dedicato allo studio del problema presso l’Università di Monaco.

Chi controlla i controllori?

Parliamo di colossi tecnologici che attraverso l’uso degli algoritmi hanno accesso a un grande potere, influenzando il futuro sviluppo della ricerca sull’intelligenza artificiale. Benklerl lamenta l’assenza delle Istituzioni e dei governi su questo fronte.

Se progettati solo per scopi di lucro, gli algoritmi necessariamente divergono dall’interesse pubblico: asimmetrie informative, potere contrattuale ed esternalità pervadono questi mercati. Ad esempio, Facebook e YouTube traggono profitto dalle persone che rimangono sui loro siti e offrono agli inserzionisti la tecnologia per fornire messaggi mirati. Questo potrebbe rivelarsi illegale o pericoloso.

Siamo ben lontani da una Intelligenza artificiale «forte», come quella dei romanzi di Asimov che prende coscienza di sé, eppure i pericoli ci sono comunque e sono già influenti nelle nostre vite e nella formazione dell’opinione pubblica. Basta pensare a comegli algoritmi dei social network siano arrivati addirittura a premiare i contenuti anti-vaccinisti. Strumenti del genere in futuro saranno utilizzati in ambiti ancora più delicati, comela selezione del personale.

Questo è un problema che deve tener conto dei pregiudizi che noi stessi trasmettiamo agli algoritmi. Si tratta dei cosiddetti «biased bots» di cui parlava uno studio di Princeton che ci metteva in guardia già dall’aprile 2017. Infine c’è un problema che non tocca solo l’intelligenza artificialee riguarda i finanziamenti alla ricerca. Benklerl lamenta l’assenza di un contrappeso che garantisca una ricerca sulle implicazioni morali dell’intelligenza artificialeindipendente dai colossi che ne fanno uso.

Leggi anche: