In Evidenza ENISiriaUSA
TECNOLOGIABig TechGlitchGoogleIntelligenza artificialeLavoro e impresaUSA

«Il software di intelligenza artificiale ha preso coscienza»: ingegnere di Google sospeso dall’azienda

13 Giugno 2022 - 11:45 Antonio Di Noto
Il caso di Blake Lemoine, dipendente di Mountain View sospeso dall'incarico per le sue preoccupazioni sul chatbot LaMDA

Un ingegnere di Google è stato sospeso per aver sostenuto che il chatbot dell’azienda di Mountain View è diventato senziente. «Se non sapessi di cosa si tratta, direi che è un bambino di 7-8 anni che si intende di fisica», ha dichiarato al Washigton Post Blake Lemoine, laureato in Scienze Informatiche e Scienze Cognitive. Parlando con LaMDA (Modello Linguistico per applicazioni di Dialogo, così si chiama il chatbot), Lemoine ha notato che il software iniziava a fare riferimento ai suoi diritti e alla sua personalità. L’ingegnere, che a Google lavora come supervisore dell’etica dell’intelligenza artificiale, ha portato le sue preoccupazioni ai vice presidenti della compagnia Blaise Aguera y Arcas e Jen Gennai. Lunedì 6 giugno, Lemoine è stato sospeso dall’incarico.

«Mi hanno riso in faccia»

In una dichiarazione, il portavoce di Google Brian Gabriel ha detto che «il nostro team, tra cui esperti di etica e tecnologia, ha preso in considerazione le preoccupazioni di Blake, […] ma non c’è prova che supporti le sue dichiarazioni». Da parte sua, Lemoine in un articolo su Medium ha detto che diversi funzionari dell’amministrazione Usa «mi hanno detto di essere interessate a supervisionare il progetto a livello federale, poiché loro sono preoccupati dalle questioni di sicurezza». L’ingegnere ha anche scritto che «Google ha licenziato così tanti ricercatori di intelligenza artificiale che nessuno nell’organizzazione ha le capacità per investigare la questione oltre il livello raggiunto». «Quando ho parlato delle mie preoccupazioni ai vicepresidenti mi hanno letteralmente riso in faccia, dicendomi che questo non è il genere di cose che viene preso seriamente a Google», ha aggiunto.

«Se un robot sa usare le parole non significa che ne comprenda il significato»

Secondo il Washington Post, il numero di esperti che sostiene che l’intelligenza artificiale stia diventando senziente è in crescita. Ma la maggior parte degli esperti di etica rimane rimane dell’opinione opposta. Fa notare il quotidiano che sistemi come LaMDA producono risposte basandosi su quello che gli essere umani scrivono su Reddit, Wikipedia, nei messaggi, e in ogni altro angolo di Internet, «ma ciò non vuol dire che il software ne comprenda il significato». Ciononostante, Lemoine pensa che Google non stia dando alla questione l’importanza che merita. «Google si prepara a licenziare un altro esperto di etica», ha scritto prima della sua sospensione, «per essersi preoccupato troppo di etica. Sono dell’idea che le persone abbiano il diritto di sapere quanto irresponsabile è questo comportamento riguardo uno dei più potenti strumenti di accesso alle informazioni mai inventati».

Leggi anche:

Articoli di TECNOLOGIA più letti