In Evidenza ENISiriaUSA
SCIENZE E INNOVAZIONEArmiIntelligenza artificialeRobot

Robot killer, un gruppo di scienziati chiede di vietare le armi in grado di uccidere da sole

17 Febbraio 2019 - 15:51 Valerio Berra
La proposta è arrivata durante il meeting annuale dell' American Association for the Advancement of Science. In Europa un gruppo di esperti sta lavorando da mesi per scrivere un documento sulle norme etiche che dovrebbe seguire l'intelligenza artificiale

Nei racconti di fantascienza di Isaac Asimov tutti i robot seguivano tre leggi. La prima, quella più importante, era: «Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno». Ora che l’intelligenza artificiale sta cominciando a essere utilizzata anche in ambito bellico, questa legge sembra non essere del tutto superata.

Dal 14 al 17 febbraio si è tenuto a Washington il convengo annuale della American Association for the Advancement of Science e qui un gruppo di scienziati ha chiesto la messa al bando dei droni militari in grado di scegliere autonomamente se uccidere, o meno, una persona.

I rischi sono due. Il primo è quello dei malfunzionamenti tecnici. Errori di sistema che potrebbero portare a colpire bersagli sbagliati. Il secondo è quello dell’etica sulla programmazione. Che linee guida seguirebbero gli scienziati che programmano questo tipo di armi?

L’attenzione su questo argomento era già stata sollevata dalla campagna per fermare i Robot Killer, un’iniziativa nata nel 2012 e sottoscritta da 93 organizzazioni non governative per fermare la diffusione di armi autonome. In Italia questo appello è stato firmato dall’Unione degli Scienziati per il Disarmo e dalla Rete Italiana per il Disarmo. Non si tratta di umanoidi stile RoboCop dal grilletto facile ma di droni militari: velivoli i grado di identificare e, nel caso, colpire diversi tipi di bersagli fra cui gli uomini.

Nel giugno 2018 la Commissione Europea ha chiamato 52 esperti per scrivere un documento sulle linee etiche da seguire quando si programmano sistemi di intelligenza artificiale. Fra i quattro italiani scelti per questo compito c’è anche Luciano Floridi, professore di filosofia ed etica all’Università di Oxford.

Intervistato da Open aveva spiegato che su questo tema «il rischio è che ogni Paese decida per sè. Quello che mi fa ben sperare è che le aziende tecnologiche che si occupano di questi temi lavorano su un piano internazionale e quindi è plausibile sostenere che adotteranno una soluzione comune per tutti i Paesi».

Sullo stesso tema:

Articoli di SCIENZE E INNOVAZIONE più letti