Disinformazione, video shock e messaggi d’odio sul conflitto, l’Ue richiama Meta e TikTok: «Misure urgenti per rimuovere contenuti pericolosi»

La Commissione ha dato sei giorni di tempo ai due colossi tech per indicare quali azioni stanno intraprendendo per ripulire le loro piattaforme dai contenuti a rischio

Le istituzioni europee sono preoccupate per i rischi di spill-over del conflitto mediorientale in Europa. Dal punto di vista della gestione della sicurezza e delle minacce dirette all’ordine pubblico, certo, come prova la nuova spinta impressa nelle ultime ore dalla Commissione Ue per accelerare i rimpatri di migranti privi del diritto di asilo e considerati pericolosi. Ma anche rispetto ad un rischio più subdolo e diffuso, quello dell’avvelenamento dell’opinione pubblica per il tramite di disinformazione o contenuti illegali che viaggiano online. Una preoccupazione che la Commissione ha tramutato oggi in azione, intimando a due dei colossi social più attivi nel continente – Meta e TikTok – di fornire entro pochi giorni informazioni circostanziate sul modo in cui stanno rispondendo al rischio amplificato che sulle loro piattaforme dilaghino disinformazione e contenuti illegali, come quelli di natura violenta, terroristica o di incitazione all’odio. TikTok e Meta, che gestisce a sua volta tre grandi piattaforme digitali – Facebook, Instagram e WhatsApp – sono state invitate a fornire informazioni circostanziate sulle azioni di contenimento che stanno o intendono intraprendere entro e non oltre il prossimo 25 ottobre. Una simile richiesta, come ricostruisce Cnbc, era già stata fatta la scorsa settimana a X, l’ex Twitter guidato da Elon Musk. Sei giorni di tempo, dunque.


Le misure di contenimento sui social e la minaccia di sanzioni

La Commissione può avanzare tali richieste alle aziende che controllano le piattaforme tech sulla base del Digital Services Act, il quadro normativo di settore adottato nei mesi scorsi dall’Ue per assicurare il monitoraggio dei contenuti a rischio sui canali social nell’Ue. Se non forniranno le informazioni entro i tempi richiesti (sei giorni), le aziende rischiano a norma del DSA di essere sanzionate con multe fino al 6% dei ricavi annuali totali: per Meta, calcola Cnbc, significa un importo potenziale fino a 7 miliardi di dollari. TikTok ha confermato di aver ricevuto la richiesta della Commissione e di essere al lavoro per fornire le informazioni richieste. Nei giorni scorsi l’azienda cinese ha detto di aver messo al lavoro un maggior numero di moderatori di lingua araba ed ebraica per rivedere i contenuti legati alla guerra, e di aver migliorato i suoi sistemi automatici per intercettare e rimuovere i contenuti grafici (foto e video) più violenti. Quanto a Facebook, Meta ha detto di aver segnalato o rimosso solo nei tre giorni dopo l’assalto terroristico di Hamas nel sud di Israele qualcosa come 795mila contenuti che violavano le sue policy. E ieri ha diramato nuove indicazioni ad hoc, in particolare cambiando le impostazioni di default su chi può commentare su nuovi post creati dagli utenti che vivono «nella regione»: soltanto più gli amici, o i followers consolidati.


Leggi anche: