Ue: un codice per l’intelligenza artificiale

A Bruxelles si lavora per difendere i cittadini dagli effetti collaterali degli algoritmi 

Forse le tre leggi della robotica concepite da Isaac Asimov sono già superate dalla realtà. Non abbiamo ancora robot tanto intelligenti da acquisire una coscienza propria, eppure i problemi non mancano. Andrup Ansip, vicepresidente della Commissione europea e commissario al Digitale, ha rilasciato una dichiarazione che potrebbe sembrare esagerata, eppure abbiamo già molti esempi di quanto l’Intelligenza artificiale possa creare problemi etici e sociali, specialmente nell’ambito lavorativo; persino sul fronte dei diritti civili.


L’intelligenza artificiale può apportare grandi benefici alle nostre società, dalla diagnosi dei tumori alla riduzione del consumo energetico. Ma affinché le persone accettino e utilizzino i sistemi basati su questa tecnologia devono averne fiducia, sapere che la loro privacy è rispettata, che le decisioni non sono di parte. Il lavoro del gruppo di esperti è molto importante in questo senso e incoraggio tutti a condividere i commenti per aiutare a finalizzare le linee guida.


Ecco quindi che i tempi sembrano ormai maturi per varare un codice etico europeo sulle IA. L’intento è proprio quello di tutelarci dagli effetti collaterali di un uso spensierato degli algoritmi sulle nostre vite.

Andare ad un colloquio con l’IA

Non è passato molto tempo dalle polemiche suscitate da “robot Vera”, una intelligenza artificiale creata dalla start-up russa Stafory ​​​​​e impiegata per selezionare il personale. I suoi sviluppatori sono impegnati anche a dotarla della capacità di riconoscere le emozioni dei candidati.

Cosa può andare storto? Ne sa qualcosa Microsoft che fece una figuraccia colossale nel 2016 con la sua chat-bot: ad un certo punto si è trovata a scrivere frasi inneggianti a Hitler, questo perché alcuni utenti si erano divertiti a cercare di “confonderla”, con messaggi non proprio moderati.

Il problema degli algoritmi “razzisti”

Ma il vero problema – se parliamo di selezione del personale da parte di una Intelligenza artificiale – è proprio l’intrinseca tendenza degli algoritmi ad assumere “atteggiamenti discriminatori”. Uno studio pubblicato dall’Università di Princeton è riuscito a dimostrare che gli stessi programmatori potrebbero trasmettere involontariamente dei pregiudizi agli algoritmi.

In sostanza, se un programma avesse a disposizione tutti i dati statistici sulle probabilità che avrebbe un candidato ad essere efficiente sul lavoro, la conseguenza potrebbe essere che i soggetti più deboli della società avrebbero meno possibilità di trovare un impiego, questo perché magari stando alle informazioni a disposizione un nero in America risulterebbe più tendente a commettere crimini (trascurando le cause sociali e politiche dei freddi dati statistici), oppure una donna in gravidanza avrebbe meno possibilità di essere produttiva quanto una collega senza figli a carico.

Intelligenze artificiali psicopatiche

Ma al peggio. quando si parla di IA, non c’è mai limite. Lo sanno bene i ricercatori del Media Lab di Boston, i quali sono riusciti a creare la prima IA dota ta di sintomi psicotici. Potremmo dire che gli scienziati in questo caso si sono fatti un po’ beffe dei media. In realtà si è trattato solo di una simulazione: serviva ai ricercatori proprio per mettere in evidenza i problemi che l’affidarsi ad una mera IA comporterebbero.

Androidi con cittadinanza e candidabili alle elezioni

Per quanto possa sembrare strano, i robot dotati di IA sono già andati oltre le nostre aspettative (nonostante siano ancora molto primordiali), sollevando questioni etiche e civili che pensavamo dovessero restare chiuse. Ma non è ancora possibile in quel paese candidare delle macchine.