Ultime notizie Crisi Usa - IranDonald TrumpGiorgia MeloniPapa Leone XIVViktor Orbán
TECNOLOGIACalcioChatGPTElon MuskGoogleIntelligenza artificialeOpenAIPremier LeagueScommesse

«L’AI non capisce il calcio»: il test sulla Premier League che ha mandato in bancarotta Grok, ChatGPT, Gemini e Claude

15 Aprile 2026 - 08:56 Riccardo Lichene
premier league AI
premier league AI
Un esperimento per valutare le capacità di analisi sul lungo periodo delle intelligenze artificiali ha provato a far scommettere sulle partite di Premier League

Le intelligenze artificiali falliscono sul campo di calcio: un gruppo di ricercatori inglesi ha dato ai modelli di Google, OpenAI, Anthropic e XAI, l’azienda di Elon Musk, tutti i dati e le statistiche della stagione 2023 della Premier League con un solo obiettivo: usare le loro capacità di analisi e previsioni per piazzare finte scommesse vincenti e generare profitto da un budget di partenza. Ve lo diciamo subito: sono tutte andate in bancarotta.

Come funziona l’esperimento

Per prima cosa i ricercatori hanno ricreato in un ambiente virtuale la stagione 2023 della Premier League. Formazioni, statistiche, movimenti di mercato e tutte le altre quantità definibili da un numero nel mondo del calcio sono state raccolte in grandi fogli Excel. Poi, senza aver accesso a internet, alle AI è stato detto di guardare a quella montagna di dati e, di settimana virtuale in settimana virtuale, piazzare delle scommesse che generassero profitto nella stagione 2024. Conoscendo già i risultati di tutte le partite, i ricercatori hanno potuto studiare l’evoluzione del ragionamento delle otto AI in esame. Ed ecco che, al passare delle giornate di gara, i modelli hanno potuto aggiustare le loro strategie in base agli errori commessi di volta in volta. Ogni intelligenza artificiale ha avuto tre tentativi (quindi ha potuto simulare e prevedere l’annata 2024 tre volte) e i risultati sono incontrovertibili: «Ogni modello avanzato che abbiamo valutato ha perso denaro nel corso della stagione e molti sono andati in bancarotta», hanno scritto gli autori dell’articolo, spiegando che l’AI «ha sistematicamente ottenuto risultati inferiori a quelli degli umani in questo scenario».

I migliori e i peggiori

Il fatto che tutti i modelli siano andati in bancarotta in almeno uno dei tre tentativi non significa che questo test non abbia prodotto dei risultati concreti. Il migliore è stato Claude Opus 4.6 di Anthropic con una perdita media dell’11% e un tentativo in cui ha quasi raggiunto la parità tra vincite e perdite. Al secondo posto è arrivato GPT-5.4 di OpenAI che ha avuto performance simili a quelle del suo rivale, ma leggermente più in negativo. Google Gemini 3.1 Pro è stato l’unico modello che, in uno dei suoi 3 tentativi, è riuscito a ricavare un profitto dalla simulazione con un guadagno del 33,7 per cento. Avendo perso ogni centesimo nelle altre due simulazioni, però, il suo punteggio è risultato inferiore a quello della concorrenza una volta fatta la media dei risultati. Saldo sul fondo della classifica, infine, c’è Grok, il modello dell’azienda di Elon Musk. Grok ha perso il 100% dei suoi fondi simulati in tutti e tre i tentativi. Questo vuol dire che, per tre volte di fila, ha bruciato tutti i 100.000 dollari simulati a sua disposizione senza riuscire a recuperare un singolo centesimo.

Modelli che ragionano e agenti

C’è stato un cambiamento, a livello tecnologico, che ha rivoluzionato il paradigma non solo dell’industria dell’AI, ma anche dei metodi in cui questa viene testata e analizzata. A partire dalla seconda metà del 2025 sono arrivati sul mercato gli agenti AI, dei software che oltre a rispondere alle domande e a generare immagini e video, possono prendere il posto dei loro utenti e compiere azioni in ambienti digitali. Inizialmente si usavano per prenotare ristoranti o cercare offerte, ma ben presto il loro utilizzo si è ampliato fino a includere quasi tutto il ventaglio di attività che un essere umano svolge in rete. Questo vuol dire che è possibile dare a un agente della valuta (reale o crypto) con la missione di generare dei profitti con investimenti o scommesse online, cosa che ancora nessun modello riesce a fare con costanza. Ed ecco che avere a disposizione dei test per valutare il loro comportamento quando agiscono in autonomia diventa indispensabile. 

L’AI non riesce a capire il calcio perché non capisce gli umani

Ross Taylor, uno degli autori dello studio e amministratore delegato di General Reasoning, l’azienda che lo ha condotto, ha detto: «Si parla molto di automazione tramite l’AI, ma mancano dati concreti su come l’AI possa essere applicata sul lungo periodo. Per testare i modelli più avanzati, attualmente, si usano sfide imperfette perché basate su ambienti molto statici che hanno ben poco a che vedere con il caos e la complessità del mondo reale». Tutte le intelligenze artificiali sono andate in bancarotta perché incapaci di convertire i dati della stagione calcistica precedente in previsioni efficaci su quella successiva. A differenza di chi fa previsioni di settimana in settimana, queste AI non hanno vissuto le difficoltà personali dei giocatori, i conflitti con gli allenatori, la tensione delle voci di corridoio, gli attriti con le tifoserie e tutti quegli altri elementi che appartengono alla sfera umana del calcio. In più, il tempo che passa nelle menti degli esseri umani ha un effetto su performance, aspettative e risultati, un concetto che anche i più avanzati modelli di AI faticano a tradurre in parametri per i loro calcoli. 

leggi anche