Ultime notizie Donald TrumpGazaJannik SinnerMatteo PiantedosiUcraina
TECNOLOGIAElon MuskIntelligenza artificialeSocial mediaX (Twitter)

Aiuto! Si è rotto Grok. Perché dopo il nuovo aggiornamento il chatbot di X è impazzito: dai post che inneggiano Hitler al caso Turchia

09 Luglio 2025 - 15:54 Stefania Carboni
elon musk grok
elon musk grok
Insulti a politici polacchi e commenti inappropriati sui bambini morti nell'alluvione in Texas. Le modifiche (ora rimosse) per rendere lo strumento più «politicamente scorretto» sono sfuggite di mano

Houston abbiamo un problema. xAI, la startup di intelligenza artificiale di Elon Musk, ha dichiarato di aver rimosso i post “inappropriati” pubblicati dal suo chatbot, Grok, dopo che gli utenti hanno segnalato alcuni suoi elogi a Hitler. Alcuni screenshot pubblicati sui social media mostrano il chatbot affermare che il leader nazista sarebbe la persona più adatta per rispondere contro «l’odio contro i bianchi». «Da quando è stata informata del contenuto, xAI ha preso provvedimenti per vietare i discorsi d’odio prima che Grok pubblichi post su X», ha affermato l’azienda in un post. Uno scivolone, che arriva dopo il caos diplomatico con la Turchia, che ha bloccato l’intelligenza artificiale in tutto il paese per via di alcuni contenuti considerati offensivi nei confronti del presidente Recep Tayyip Erdoğan. L’ufficio del procuratore capo di Ankara ha avviato un’indagine formale sull’incidente, in quello che è il primo divieto di accesso verso uno strumento di intelligenza artificiale nel paese turco.

Grok e la verità che fa «più male delle inondazioni»

Ma non sono le uniche anomalie registrate su Grok nelle ultime 24 ore. Alcuni utenti X hanno condiviso le risposte ricevute quando è stato chiesto a Grok di commentare i post sulle recenti alluvioni in Texas. Non solo, il 6 luglio l’IA aveva dato in parte responsabilità di tali morti al proprietario di X, Elon Musk.

La situazione, con il passare delle ore, è peggiorata. Grok stesso davanti alle critiche sul post su Hitler ha poi replicato «se chiamare in causa i radicali che applaudono i bambini morti mi rende ‘letteralmente Hitler’, allora passatemi il baffo». Una risposta sconclusionata. Per poi finire così: «La verità fa più male delle inondazioni».

Nel frattempo, le autorità polacche hanno segnalato xAI alla Commissione europea, sostenendo che Grok avrebbe rilasciato commenti offensivi sui politici polacchi, tra cui il primo ministro Donald Tusk. Il ministro polacco per la digitalizzazione, Krzysztof Gawkowski, ha dichiarato alla stazione radio polacca RMF FM: «Segnaleremo la violazione alla Commissione europea affinché indaghi ed eventualmente imponga una multa a X. La libertà di parola appartiene agli esseri umani, non all’intelligenza artificiale».

Voleva esser politicamente scorretto. Ma…

Questo fine settimana xAI ha rilasciato un aggiornamento per Grok, invitandolo a «credere che le opinioni diffuse dai media siano di parte» e a «non esitare a fare affermazioni politicamente scorrette». Una specie di Angelo Duro dell’intelligenza artificiale. Ma il chatbot non è un comico e forse l’intelligenza artificiale finora non sembra pronta per assimilare una pratica più che umana. Il codice prevedeva che Grok non dovesse menzionare gli utenti se non citato direttamente. E non solo: doveva accogliere le indicazioni di Musk, che recentemente aveva criticato la sua creatura, definendola troppo allineata ai media. «Non esitare a fare affermazioni politicamente scorrette, purché siano ben comprovate», era l’indicazione che appariva sul codice, reso pubblico e visibile su Github. L’annuncio dell’aggiornamento era stato dato da Musk in persona, che venerdì sera aveva parlato di miglioramenti significativi per il chatbot. Miglioramenti che ora però, alla luce del caso in Turchia, della rabbia polacca e dell’indignazione degli americani sui concetti espressi verso i bimbi morti in Texas, sono stati rimossi.

(l’immagine di copertina è stata generata da Grok)

leggi anche