In Evidenza ENISiriaUSA
SCIENZE E INNOVAZIONEFacebookNo vaxPropagandaRegno UnitoRicerca scientificaSocial mediaVacciniWebYouTube

La propaganda no-vax infetta i risultati di ricerca su Facebook e YouTube

01 Febbraio 2019 - 17:22 Juanne Pili
Un problema affligge i colossi dei social network: quello di aggiornare algoritmi e procedure di controllo per arginare la disinformazione dilagante, specialmente quella contro i vaccini, ma continuano ad esserci falle e sistemi obsoleti che non riescono a fermare il fenomeno

Nonostante il problema sia noto da tempo, i principali colossi del web non riescono a trovare misure efficaci per scoraggiare la disinformazione degli anti-vaccinisti. Se vogliamo avere una misura di quanto le campagneno-vaxsiano pericoloseper la salute pubblica, basta vedere cosa è successonegli Stati di Washington e Oregon, entrambi instato d’emergenzaper un’epidemia di morbillo dovuta proprio alla scarsa copertura vaccinale.

Il problema dei sistemi di indirizzamento

Anche l’Italia non sembra immune, basti pensare a quanto è stata efficace l’opera di alcune organizzazioni «free-vax» nostrane. Perché la disinformazionesul tema continuaa proliferare, nonostante l’infondatezza di queste tesi sia stata ormai accertata? Potremmo provare a rispondere a questa domandaosservando i le risposte dei social network alle ricerche degli utenti.

Un’inchiesta svolta dal Guardian si focalizza in particolare su Facebook e YouTube. In entrambi, gli utenti che cercano informazioni sui vaccini hanno grosse probabilità di incappare su contenuti che fanno disinformazione. La narrazione utilizzata è spesso studiata ad arte per agganciare i genitori, con risultati considerevoli, anche in periodi in cui infuriano le epidemie di morbillo.

La propaganda no-vax infetta i risultati di ricerca su Facebook e YouTube foto 1

Suggerimenti di ricerca su YouTube

La fragilità degli algoritmi di raccomandazione

Su Facebook continuano a prosperare gruppi e pagine di organizzazioni no-vax. YouTube invece ha un algoritmo di raccomandazione «condizionato» dalla disinformazione medica. Non a caso proprio l’Oms ha inserito recentemente la riluttanza ai vaccini tra le principali minacce alla salute pubblica per il 2019, assieme al problema della resistenza dei batteri agli antibiotici.

Non deve sorprendere il fatto che gli possano essere «condizionati»:questo è uno dei problemi a cui si dovrà far fronte anche nel campo dell’Intelligenza artificiale, tanto che l’Unione europea ha in programma un vero e proprio codice etico per tutelare i suoi cittadini dagli «effetti collaterali» degli algoritmi.

Lettori sempre meno attenti

A questo si deve aggiungere anche un aspetto che riguarda l’uso sempre più frequente dei dispositivi mobili, senza contare che la lettura digitale riduce il livello di attenzione, abbassando le difese di chi vorrebbe informarsi in maniera adeguata su un certo argomento.

La propaganda no-vax infetta i risultati di ricerca su Facebook e YouTube foto 2

Suggerimenti di ricerca su Facebook

I sistemi di controllo sono ancora inadeguati e obsoleti

Sia Facebook che YouTube stanno studiando metodi per rendere meno visibili i contenuti scorretti. Il problema resta sempre quello di trovare la ricetta giusta.

Il sospetto che possano esserci statianche dei gravi errorièin agguato, basti ricordare quanto accadde al nostro David Puente e ad altri colleghi, che si sono ritrovaticon gli account blocccatia causa di una segnalazione in massa da parte di un gruppo di anti-vaccinisti.

Continuano insomma a esistere meccanismi obsoleti anche nelle procedure di segnalazione, portando chi cerca di porre una pezza alla disinformazione a trovarsi contro lo stesso social network che invece dovrebbe tutelarlo.

Gli effetti avversi del controllo sulle parole chiave

Su YouTube si vorrebbe continuare la politica in parte cominciata con la «adpocalypse», ovvero di scoraggiare la pubblicazione dei contenuti con parole chiave che rimandano a tesi pseudo-scientifiche o all’odio razziale e politico.

Ma questo porta a effetti paradossali: logicamentechi cerca di fare informazione corretta denunciando le bufale usale medesime parole chiave incriminate, trovandosi quindialtrettanto penalizzato. Alessandro Masala (Breaking Italy) è uno dei tanti influencer della community italiana che ha subito maggiori danni -soprattutto economici -per via di questi «effetti avversi».

Altre falle nei sistemi di controllo

A questi problemi si aggiungono varie «scorciatoie normative». Spesso i contenutino-vax non violano le norme interne dei social. A questo va aggiunto che persino le inserzioni pubblicitarie contenenti propaganda disinformativa potrebbero aggirare senza problemi i controlli, contribuendo ad alimentare il problema.

I suggerimenti che compaiono nelle barre di ricerca automatica non aiutano certo, rimandando a parole chiave anti-vacciniste. Persino ricerche neutre, come l’uso del semplice termine «vaccino» possono indirizzare a contenuti pseudo-scientifici.

Articoli di SCIENZE E INNOVAZIONE più letti