Gaza, l’anziano palestinese malnutrito scambiato dall’AI per un uomo indiano


Circola un video che ritrae Salim Asfour, un anziano palestinese che mostrerebbe evidenti segni di malnutrizione. Secondo alcuni utenti, le immagini non sarebbero state riprese a Gaza, ma in India nel 2007. La presunta “verifica” è attribuita a Gemini, l’Intelligenza Artificiale di Google, che però sbaglia completamente.
Per chi ha fretta
- La verifica effettuata da Gemini risulta del tutto scorretta.
- Confrontando le foto dei due uomini, appare evidente che non si tratti della stessa persona.
- In rete circolano diverse interviste all’anziano di Gaza, realizzate da attivisti palestinesi.
Analisi
La presunta verifica viene condivisa con il seguente commento, probabilmente ripreso da un post su X:
I PALESTINESI mentono SEMPRE.
Piaccia o non piaccia, in assenza di genocidio provano ad inventarne uno.
Li crescono con la cultura della menzogna.

Nella condivisione è presente una verifica del tutto sbagliata fornita da Gemini attraverso Google Images. Ecco il testo della risposta dell’AI:
Questa immagine non è stata creata da Al. È una fotografia di Angur Bala Dolui, un rifugiato dell’isola di Sangar, nelle Sunderbans, in India, costretto a lasciare la propria casa a causa dell’innalzamento del livello del mare. L’immagine fa parte della collezione Panos Pictures. Anche altre fonti su Flickr la identificano come una fotografia, alcune risalenti al 2008 e al 2009.

L’errore dell’Intelligenza Artificiale con il caso dell’India
L’Intelligenza Artificiale di Google sostiene che l’immagine fornita dall’utente ritragga Angur Bala Dolui, in uno scatto datato 2007 pubblicato da Panos Pictures.

Come possiamo notare, anche attraverso un ulteriore scatto fotografico in primo piano del cittadino indiano, non si tratta della stessa persona.

Numerosi video e testimonianze
Online si possono trovare numerosi video e foto realizzati da attivisti palestinesi, inclusi contenuti in forma di intervista, come nel caso dello short pubblicato dal canale YouTube Ghaith.Gaza1.

Conclusioni
Risulta evidente che l’uomo ritratto dai palestinesi non sia un cittadino indiano. Come già evidenziato in passato da Open Fact-checking, l’Intelligenza Artificiale non è uno strumento affidabile per la verifica delle immagini. L’uso di questo metodo sta infatti generando un notevole quantitativo di fake news sul conflitto a Gaza, creando un pericoloso precedente per future vicende.
Questo articolo contribuisce a un progetto di Meta per combattere le notizie false e la disinformazione nelle sue piattaforme social. Leggi qui per maggiori informazioni sulla nostra partnership con Meta.