I big della tecnologia: «Fermare lo sviluppo dell’intelligenza artificiale per almeno sei mesi». Chi ha firmato (e chi no) l’appello

L’avanzare di queste tecnologie viene definita una «pericolosa corsa agli armamenti» che sarebbe già finita «fuori controllo»

Dovremmo lasciare che l’intelligenza artificiale (IA) invada i nostri canali di informazione? Che automatizzi «tutti i lavori» compresi quelli che danno soddisfazione? Dovremmo sviluppare menti non umane che sono di più e più intelligenti di quelle umane? Che ci sostituiscano e ci rendano obsoleti? Dovremmo assumerci il rischio di perdere il controllo della nostra civiltà? Sono queste le domande, alcune che sembrano descrivere un futuro prossimo, altre che dipingono uno scenario apocalittico che si pongono Elon Musk e altri importanti nomi del mondo tech – un migliaio in totale – in una lettera aperta che chiede di interrompere per sei mesi lo sviluppo di sistemi di intelligenza artificiale avanzati come ChatGPT, Bard, e i loro concorrenti. L’avanzare di queste tecnologie, che nel 2023 hanno iniziato a rincorrersi l’un l’altra, viene definita una «pericolosa corsa agli armamenti» che sarebbe già finita «fuori controllo».


Le richieste e i firmatari

«Chiediamo a tutti i laboratori di intelligenza artificiale di fermarsi immediatamente per almeno sei mesi nell’addestrare i sistemai di IA più potenti come GPT-4. La pausa dovrebbe essere pubblica, verificabile e includere tutti. Se non sarà attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria», si legge nella lettera, che oltre al Ceo di Twitter viene firmata da importanti esponenti di Google, Yoshua Bengio, spesso definito il padre dell’IA, e Stuart Russel ricercatore pioniere dell’ambito. La missiva è stata pubblicata dal Future of Life Institute, il cui finanziatore principale è la Musk Foundation, guidata dal Ceo di Tesla, che possiede una quota di Open AI, la società che ha sviluppato ChatGPT e della quale sarebbe potuto diventare azionista di maggioranza se i fondatori non si fossero opposti.


Fosse riuscito a concretizzare le proprie intenzioni, Musk sarebbe ancor più ricco di quanto già è. Non a caso, la scorsa settimana molte testate hanno parlato del disappunto e della rabbia che il miliardario proverebbe nel vedere il successo di ChatGPT. Il testo specifica che non è necessario fermare lo sviluppo generale, ma solo di quello che al momento non si conosce. Si invitano poi i governi a sviluppare delle adeguate gabbie legislative intorno all’uso dell’intelligenza artificiale, che includa, ad esempio, sistemi di watermark per identificare ciò che viene creato dall’AI dal contenuto umano, ma anche l’istituzione di una cornice di responsabilità civile e penale per l’intelligenza artificiale. Senza queste basi, l’AI generativa viene definita un rischio per la democrazia.

Le preoccupazioni

La domanda che si fanno i firmatari è delle più classiche: cosa succederebbe se tecnologie di questo tipo finissero nelle mani sbagliate? Di lì la proposta: «I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili». E quindi i sei mesi di tempo, che dovrebbero servire dare modo a chi di dovere di sviluppare dei protocolli di sicurezza condivisi a tutte le piattaforme, che siano elaborati, messi in pratica e la cui solidità venga verificata da esperti indipendenti. È di questa settimana un rapporto dell’Europol che illustra in che modo i malintenzionati potrebbero usare i modelli di linguaggio basati sull’intelligenza artificiale. Si va dal cybercrime all’ingegneria sociale, passando da frodi e impersonificazioni.

Le critiche di chi non firma

Secondo alcuni, la lettera non sarebbe altro che un modo di spaventare le persone al cospetto di una nuova tecnologia ancora relativamente sconosciuta. Nello specifico, riporta Reuters gli esperti concordano sul fatto che i grandi sviluppatori stanno diventando sempre meno trasparenti nei loro progetti. Che esattamente il contrario di quello che dovrebbero fare. Sebbene a sottoscrivere la lettera vi siano esponenti di spicco, mancano alcuni nomi illustri della tecnologia. Non c’è Bill Gates, ad esempio, che nell’integrazione di ChatGPT con i software Microsoft ha investito almeno 10 miliardi di euro, e non c’è nemmeno Sam Altman, il fondatore di Open AI che ChatGPT lo ha sviluppato. Al momento assente anche il fondatore di Amazon Jeff Bezos.

Leggi anche: