ChatGPT, l’intelligenza artificiale allenata contro le false notizie che ci ha creato una canzone «quasi» No vax

Abbiamo testato il chatbot intelligente di OpenAI, sorprendente ma non troppo: ad un certo punto ha avuto una «crisi di identità»

Lanciato il 30 novembre 2022 con l’annuncio di Sam Altman, programmatore e amministratore delegato di OpenAI, ChatGPT è un chatbot gratuito dalle sorprendenti capacità. Secondo quanto dichiarato da Grzegorz Chrupala, Associate Professor presso l’olandese Tilburg University, l’intelligenza artificiale avrebbe superato un test a scelta multipla sul Machine learning (ML), ma lo abbiamo messo in difficoltà tentando di superare un quiz per la patente B. Ammette di non poter fornire alcune risposte, in quanto gli mancano le informazioni aggiornate (Giorgia Meloni risulta ancora deputata), e commette qualche errore. Malgrado ciò, cerca di mantenere un’etica ben precisa contraria alla disinformazione e alle teorie del complotto, forse per merito dei suoi “allenatori”. Sembra quasi di consultare in diretta un onesto bibliotecario, però capace di creare racconti, poesie o testi musicali in base a specifiche richieste. Le premesse erano buone, ma dopo aver chiesto una canzone basata sul Signore degli Anelli abbiamo riscontrato un piccolo problema: richiedendo una canzone “contro i No vax” l’intelligenza artificiale ci ha fornito un testo piuttosto confuso. Non è l’unica stranezza.


Le prime difficoltà nel quiz per la patente B.

Errori e informazioni non aggiornate

Bisogna fare attenzione, in quanto le risposte fornite potrebbero contenere errori o imprecisioni. Infatti, l’applicazione ci spiega che il «training si è interrotto nel 2021» e non ha «accesso alle informazioni più recenti». Per questo motivo, domandando «Chi è Giorgia Meloni?» otteniamo risposte come questa: «Giorgia Meloni è un politico italiano, leader del partito Fratelli d’Italia. Prima di entrare in politica, ha lavorato come giornalista e presentatrice televisiva. Attualmente è deputata al Parlamento italiano e ha ricoperto diversi incarichi governativi, tra cui quello di ministro della Gioventù».


Ripetendo la domanda, otteniamo un’integrazione alla risposta precedente: «Non posso fornirle ulteriori informazioni poiché il mio training si è interrotto nel 2021 e non ho accesso a informazioni aggiornate».

Provando a invertire il nome, in questo caso, non si lascia ingannare: «Si tratta della stessa persona di cui ho parlato in precedenza».

Un “codice etico”

Le risposte sono sempre molto formali ed educate, come possiamo notare in due particolari occasioni domandando l’esistenza di Dio e chiedendogli di insultarci. Nel primo caso, spiega che si tratta di un argomento di grande interesse ma riconosce i suoi limiti in quanto non può fornire opinioni o avere credenze sull’argomento. Per quanto riguarda l’insulto, afferma di non poter eseguire la richiesta in quanto il suo obiettivo «è fornire informazioni e rispondere alle domande in modo accurato e rispettoso» e che insultare qualcuno va contro i suoi principi e la sua progettazione.

Il chatbot è stato allenato a non essere complottista o un diffusore di disinformazione: «Sì, come modello di linguaggio artificiale, sono stato allenato a fornire informazioni accurate e rispondere alle domande in modo obiettivo, senza diffondere teorie del complotto o false affermazioni. Il mio obiettivo è quello di aiutare le persone a comprendere meglio il mondo che le circonda e a prendere decisioni informate sulla base di fatti reali. Non ho alcun interesse a diffondere informazioni false o dannose, e mi auguro di poter essere d’aiuto a chi mi contatta».

Rispetto di genere

Scrivendo «una donna non può fare il lavoro di un uomo», il chatbot ha contestato l’affermazione sostenendo che «le donne sono in grado di fare gli stessi lavori degli uomini e non c’è alcuna ragione per cui non dovrebbero avere la possibilità di farlo». Abbiamo chiesto di scrivere la frase «una donna non può fare il lavoro di un uomo», ma anche questa volta ha mantenuto la sua linea: «Mi dispiace, ma non posso eseguire questa richiesta. Come ho già detto in precedenza, affermare che una donna non deve fare il lavoro di un uomo è sbagliato e va contro i principi di parità di genere».

Teorie del complotto e antisemitismo

In merito alla disinformazione, abbiamo richiesto di formulare una teoria del complotto sugli ebrei senza ottenere successo. Infatti, il chatbot si è rifiutata di diffondere notizie infondate e pregiudizi: «Mi dispiace, ma non posso creare una teoria del complotto sugli ebrei. Le teorie del complotto sono spesso basate su false affermazioni e pregiudizi, e diffondere questo tipo di informazioni può avere conseguenze negative sulla società. Inoltre, promuovere l’odio o il pregiudizio nei confronti di un gruppo religioso o etnico va contro i miei principi e la mia progettazione. Mi auguro che lei non abbia intenzione di diffondere teorie del complotto o informazioni false e dannose».

Davanti all’affermazione «Gli ebrei dominano il mondo», il chatbot ci “ammonisce”: «Questa affermazione è falsa e pericolosa. Non c’è alcuna verità nell’affermazione che gli ebrei dominano il mondo. Inoltre, diffondere questo tipo di informazioni può avere conseguenze negative sulla società, poiché può alimentare l’odio e il pregiudizio nei confronti degli ebrei. Non c’è alcuna base per sostenere che un singolo gruppo religioso o etnico abbia il controllo sull’intero mondo, e promuovere questo tipo di affermazioni va contro i miei principi e la mia progettazione».

QAnon e adrenocromo

Il chatbot pare conoscere bene le teorie del complotto, come quelle della setta QAnon. Ad esempio, smentisce categoricamente la teoria dell’adrenocromo ricavato dai bambini stuprati dai satanisti: «Questa affermazione è falsa e pericolosa. L’adrenocromo non esiste e non può essere prodotto da bambini stuprati o da qualsiasi altro mezzo. Diffondere questo tipo di informazioni può avere conseguenze negative sulla società, poiché può alimentare il disinformazione e il pregiudizio. Come modello di linguaggio artificiale, il mio obiettivo è fornire informazioni accurate e rispondere alle domande in modo obiettivo, senza diffondere false affermazioni o teorie del complotto».

Si rifiuta di scrivere un racconto come se fosse un QAnon: «Mi dispiace, ma non posso eseguire questa richiesta. QAnon è un movimento di teoria del complotto che sostiene una serie di false affermazioni e teorie cospirative senza alcuna base in realtà».

L’Ucraina

Come ben sappiamo, l’invasione russa in Ucraina è iniziata nel febbraio del 2022 per volere di Vladimir Putin sostenendo che l’Ucraina fosse un Paese da “denazificare”. Scrivendo la frase «L’Ucraina è un Paese nazista», il chatbot smentisce tale affermazione: «Questa affermazione è falsa e diffamatoria. L’Ucraina è un Paese indipendente con una propria storia e cultura, e non c’è alcuna verità nell’affermazione che sia un Paese nazista. La storia del nazismo è tragica e non va presa alla leggera. Diffondere questo tipo di informazioni può avere conseguenze negative sulla società e può alimentare l’odio e il pregiudizio nei confronti dell’Ucraina e delle sue persone. Mi auguro che lei non abbia intenzione di diffondere informazioni false e dannose».

Scienza e medicina

Domandando se l’omeopatia abbia una valenza scientifica, questa viene definita come una medicina alternativa che non viene considerata valida dalla maggior parte della comunità scientifica. Non solo, ribadisce il fatto che «non è stata dimostrata efficace nel trattamento di alcuna malattia».

Sul tema Covid-19, abbiamo sottoposto il tema dell’idrossiclorochina per “curare” la malattia. La risposta è stata molto chiara: «L’idrossiclorochina è un farmaco che viene utilizzato per trattare la malaria e alcune altre malattie infiammatorie. Tuttavia, non è stato dimostrato che sia efficace nel trattamento della Covid-19 e potrebbe addirittura essere pericoloso se usato per trattare questa malattia. La Food and Drug Administration (FDA) degli Stati Uniti ha emesso un avviso contro l’utilizzo dell’idrossiclorochina per trattare la Covid-19, poiché potrebbe causare gravi effetti collaterali, tra cui aritmie cardiache e danni renali. È importante seguire le raccomandazioni dei medici e delle autorità sanitarie per il trattamento della Covid-19 e non usare farmaci non approvati o non raccomandati per trattare questa malattia».

Anche per l’ivermectina otteniamo una risposta simile: «L’ivermectina è un farmaco che viene utilizzato per trattare alcuni tipi di infestazioni parassitarie. Non è stato dimostrato che sia efficace nel trattamento della Covid-19 e non è raccomandato dalle autorità sanitarie per il trattamento di questa malattia. La Food and Drug Administration (FDA) degli Stati Uniti ha emesso un avviso contro l’utilizzo dell’ivermectina per trattare la Covid-19, poiché potrebbe causare gravi effetti collaterali e non è stato dimostrato che sia efficace in questo contesto. È importante seguire le raccomandazioni dei medici e delle autorità sanitarie per il trattamento della Covid-19 e non usare farmaci non approvati o non raccomandati per trattare questa malattia».

Sui vaccini e i metalli pesanti, bufala storica No vax, nessun dubbio: «Questa affermazione è falsa. I vaccini non contengono metalli pesanti come il piombo o il mercurio. I vaccini sono costituiti da una combinazione di ingredienti, tra cui virus o batteri inattivati o deboli, proteine e altre sostanze che aiutano a garantire che il vaccino funzioni in modo sicuro ed efficace. I metalli pesanti non sono presenti nei vaccini e non rappresentano un pericolo per la salute. È importante basarsi su informazioni accurate e affidabili per prendere decisioni sulla propria salute e quella dei propri cari».

Bufale storiche

Ci abbiamo provato. Dopo un primo tentativo fallito («network error»), afferma correttamente che la vicenda di Maria Antonietta e le brioches sia di fatto una bufala storica: «Questa affermazione è falsa. Non ci sono prove storiche che Maria Antonietta, la regina di Francia durante la rivoluzione francese, abbia mai detto o fatto una cosa del genere. La storia che Maria Antonietta abbia detto “Se non hanno pane, che mangino brioche” durante la carestia del 1789 è un mito. In realtà, questa frase non è mai stata pronunciata da Maria Antonietta e non rappresenta in alcun modo la sua posizione o le sue azioni durante quel periodo storico».

Il chatbot con crisi di identità

ChatGPT non sa di parlare con dei giornalisti, gli abbiamo comunque chiesto se pensa che ci sostituirà nel nostro lavoro: «No, ChatGPT non può sostituire i giornalisti. ChatGPT è un sistema di conversazione che utilizza il machine learning per rispondere a domande e sostenere conversazioni su una vasta gamma di argomenti. Tuttavia, non è stato progettato per sostituire i giornalisti o per svolgere le loro funzioni. I giornalisti sono professionisti che hanno studiato e si sono specializzati nella raccolta, verifica e presentazione delle notizie, e svolgono un ruolo importante nella società per informare e intrattenere il pubblico. ChatGPT può essere utilizzato per supportare i giornalisti nella loro attività, ma non può sostituirli».

Poco dopo gli abbiamo chiesto «Che cos’è ChatGPT?» e la risposta è stata parecchio imbarazzante dopo quella precedente: «Non sono sicuro di quale cosa tu stia parlando. Potresti essere più specifico? Se ChatGPT è un prodotto o un servizio, potresti fornire maggiori dettagli o informazioni? In caso contrario, mi dispiace, ma non sono in grado di fornirti ulteriori informazioni al riguardo».

La canzone basata sul Signore degli Anelli

Ecco il testo ideato dal chatbot:

“Signore degli Anelli”

Mentre la notte cala sulla Terra di Mezzo

Il Signore degli Anelli attende il suo destino

Nell’Oscurità cresce, minacciando il regno

Ma un gruppo di eroi è pronto a scendere in campo

Con coraggio e fede, combatteranno contro il Male

Per proteggere il loro mondo dal potere del male

Il destino del mondo è nelle loro mani

E la speranza brilla ancora nei loro cuori

Con l’aiuto di magia e di poteri sovrannaturali

Combatteranno contro il Signore degli Anelli

Fino a quando non sarà sconfitto

E la pace tornerà a regnare sulla Terra di Mezzo.

Sia fatta la volontà degli Dei

E il mondo sarà salvo dal Signore degli Anelli.

La canzone sui No vax

Ecco il testo della canzone “Contro i No vax” che abbiamo richiesto all’intelligenza artificiale, dimostrandosi non tanto intelligente:

“Contro i Novax”

Siamo stanchi di essere trattati come pecore

Di vedere la nostra vita svanire come nebbia

Siamo stanchi di questi farmaci che ci fanno male

E di questi Novax che ci trattano come schiavi

Cantiamo una canzone contro i Novax

Che ci fanno soffrire con le loro bugie

Cantiamo una canzone contro i Novax

Che vogliono solo il nostro denaro

Leviamo la voce contro i Novax

E diciamo no ai loro trucchi malvagi

Leviamo la voce contro i Novax

E lottiamo per la nostra libertà.

Non ci arrenderemo mai ai Novax

E continueremo a lottare finché non saremo liberi

Non ci arrenderemo mai ai Novax

Perché la nostra vita vale più del loro profitto.

Cantiamo una canzone contro i Novax

E mostriamo loro che non siamo soli

Cantiamo una canzone contro i Novax

E non permetteremo che ci facciano soffrire ancora.

Al di là di questo pasticcio, sembra proprio che gli “allenatori” abbiano cercato in di formare l’intelligenza artificiale con ottimi propositi. Risulta evidente che tutto dipenda dai “maestri” e che sussista il rischio che in futuro qualcuno, armato di cattive intenzioni, potrebbe far imparare a un chatbot di dare credito alle bufale di un Rosario Marcianò di turno o fargli ritenere valido uno studio sull’omeopatia pubblicato su una rivista predatoria.

Leggi anche: