Quali e quanti contenuti ha rimosso Facebook nel 2018

Quanti sono i contenuti che violano gli standard della comunità di Facebook e quanti vengono rimossi in maniera automatica? Ecco il «Report sulla Trasparenza» pubblicato dal social network

A novembre del 2018 Facebook ha pubblicato il «Report sulla Trasparenza» dove vengono riportati i dati globali, senza distinzione per Paese, delle violazioni riscontrate dalla piattaforma e i numeri dei contenuti rimossi dopo la verifica. Le informazioni raccolte riguardano un periodo temporale che va dall'ottobre 2017 al settembre 2018.


Nel report le violazioni vengono suddivise in sei categorie: immagini di nudo e atti sessuali di adulti, immagini di nudo e sfruttamento sessuale di minori, bullismo e intimidazioni, spam, contenuti violenti e immagini forti, incitamento all'odio, propaganda terroristica e account falsi.


Immagini di nudo e atti sessuali di adulti

Facebook tiene conto di alcuni parametri e alcune eccezioni. Sono vietate foto e video di adulti nudi e atti sessuali espliciti o impliciti, ma il social è consapevole del fatto che le immagini di nudo possano essere condivise per casi come l'educazione alla salute, allattamento al seno e le opere d'arte, come dipinti e statue, che mostrano figure nude. In tutto il periodo preso in esame abbiamo circa 108 milioni di contenuti rimossi in quanto violavano gli standard della community.

Quali e quanti contenuti ha rimosso Facebook nel 2018 foto 1

Le tecnologie messe in campo per l'individuazione automatica del materiale compromettente sono riuscite a individuare la stragrande maggioranza dei contenuti prima che gli utenti le avessero segnalate. Solo una piccola percentuale è stata rimossa a seguito di una prima segnalazione umana.

Quali e quanti contenuti ha rimosso Facebook nel 2018 foto 2

I contenuti di scene di nudo e di sesso tra adulti riscontrati dalla piattaforma prima che gli utenti le segnalassero.

Immagini di nudo e sfruttamento sessuale di minori

I dati raccolti e resi disponibili da Facebook per questa categoria di intervento sono quelli relativi al terzo trimestre del 2018. Per fortuna, come riportato dal Report, il numero di visualizzazioni di contenuti che contengono immagini di nudo e sfruttamento sessuale di minori su Facebook è molto basso a livello globale: circa 9 milioni di contenuti. La percentuale di interventi precedenti alla segnalazione da parte degli utenti è schiacciante, toccando un 99,2% dei casi:

Quali e quanti contenuti ha rimosso Facebook nel 2018 foto 4

Quanti contenuti in violazione ha trovato Facebook prima che gli utenti li segnalassero? Il 99,2% del totale su scala globale.

Incitamento all'odio

Dall'ottobre 2017 al settembre 2018 sono circa 9,5 milioni i contenuti di incitamento all'odio individuati e rimossi da Facebook. Nell'arco del periodo considerato le attività di individuazione automatica sono man mano cresciute in percentuale rispetto alle azioni intraprese a seguito della segnalazione degli utenti.

Quali e quanti contenuti ha rimosso Facebook nel 2018 foto 5

I contenuti di incitamento all'odio riscontrati da Facebook prima e dopo la segnalazione da parte degli utenti.

I numeri non sono particolarmente elevati anche perché risulta difficile la comprensione, per le diverse lingue del mondo, del contesto in cui vengono riportate determinati contenuti. Ecco quanto riportato nel Report:

Questi numeri cambiano man mano che la nostra tecnologia di riconoscimento si evolve per aiutarci a trovare e contrassegnare i contenuti in violazione. Abbiamo investito nell'individuazione proattiva dell'incitamento all'odio in alcune lingue su Facebook e abbiamo fatto progressi costanti in queste lingue. Nel complesso, ora identifichiamo più contenuti di incitamento in modo proattivo che attraverso le segnalazioni degli utenti. Detto ciò, questi contenuti spesso richiedono un esame approfondito da parte di esperti per comprenderne il contesto, e le segnalazioni degli utenti svolgono ancora un ruolo importante nell'identificare le violazioni dell'incitamento all'odio.

Contenuti violenti e immagini forti

Nel grafico relativo al numero dei contenuti individuati e/o rimossi si evidenzia un aumento considerevole da ottobre 2017 a settembre 2018, dove si è partiti dal un milione di contenuti a 15 milioni nel terzo trimestre dello scorso anno per un totale di circa 27 milioni.

Quali e quanti contenuti ha rimosso Facebook nel 2018 foto 6

Il grafico mostra come da ottobre 2017 a settembre 2018 ci sia stato un aumento considerevole delle rimozioni dei contenuti violenti e immagini corti

Facebook spiega i numeri:

Queste cifre dipendono dalla quantità di contenuti in violazione condivisi su Facebook. Sono influenzate da fattori esterni, come eventi nel mondo reale che presentano contenuti grafici violenti. Possono anche essere influenzate da fattori interni, come la capacità della nostra tecnologia di individuare violazioni potenziali.

Anche l'individuazione automatica dei contenuti è aumentata nel tempo, coprendo percentuali sempre maggiori fino a toccare il 96,8% dei casi nel terzo trimestre del 2018.

Quali e quanti contenuti ha rimosso Facebook nel 2018 foto 7

Le percentuali di individuazione e rimozione precedenti alla segnalazione degli utenti dei contenuti violenti e immagini forti.

Propaganda terroristica

Facebook non tollera chi «elogia, sostiene o rappresenta organizzazioni terroristiche o terroristi». Nonostante gli standard della comunità vengano applicati alle attività e ai gruppi terroristici a livello sia regionale sia globale, il report misura solo i provvedimenti presi sulla propaganda terroristica relativa a ISIS, al-Qaeda e ai loro gruppi affiliati per un totale di circa 15 milioni di contenuti. La percentuale di individuazione precedente alle segnalazioni degli utenti tocca il 99,5% nel terzo trimestre del 2018.

Quali e quanti contenuti ha rimosso Facebook nel 2018 foto 8

I provvedimenti presi contro la propaganda terroristica.

Anche in questo caso, i numeri cambiano a seconda dei fattori interni ed esterni del mondo reale. 

Bullismo e intimidazioni

Per quanto riguarda gi episodi di bullismo e intimidazioni, le segnalazioni da parte degli utenti hanno ottenuto il maggior numero di interventi fino a raggiungere un totale di 2,1 milioni di contenuti individuati e rimossi nel solo trimestre luglio-settembre 2018. 

Quali e quanti contenuti ha rimosso Facebook nel 2018 foto 3

I contenuti di bullismo e intimidazione riscontrati dalla piattaforma prima che gli utenti le segnalassero.

Il numero riportato è molto basso rispetto ad altre categorie, ma Facebook spiega anche i perché:

I casi di bullismo e intimidazione hanno una percentuale di contenuti individuati in modo proattivo relativamente bassa a causa della natura personale della categoria. Ciò si riflette nelle nostre regole, che spesso richiedono alle persone di segnalare il contenuto prima che Facebook possa considerarlo una violazione e prendere provvedimenti.

Spam

In cosa consiste lo spam secondo Facebook? 

Lo spam su Facebook è definito come un'attività non autentica automatizzata (pubblicata da bot o script, ad esempio) o coordinata (usando più account per diffondere e promuovere contenuti ingannevoli). La definizione comprende spam commerciale, pubblicità ingannevole, frode, link dannosi e promozione di merci contraffatte.

Gli spammer spesso creano account falsi e li usano per pubblicare rapidamente grandi quantità di contenuti di spam. Possono anche usare malware per diffondere lo spam. Ogni giorno la nostra tecnologia blocca milioni di tentativi di creazione di spam. Nel caso dello spam che riesce a essere creato, usiamo anche la tecnologia di riconoscimento, insieme alle segnalazioni degli utenti, per individuarlo e rimuoverlo prima che si diffonda.

In questo caso i numeri sono davvero considerevoli siccome si superano le soglie del miliardo di contenuti:

Quali e quanti contenuti ha rimosso Facebook nel 2018 foto 9

Il numero dei contenuti individuati come spam superano di gran lunga qualunque altra categoria di quelle attenzionate da Facebook

Nel secondo triestre del 2018 si era toccata la vetta dei 957 milioni di contenuti rimossi, largamente superati nel terzo trimestre 2018 con circa 1.231 milioni di singoli contenuti.

Account falsi

Così come per lo spam, i numeri relativi agli account falsi riscontrati sono estremamente elevati. 

Quali e quanti contenuti ha rimosso Facebook nel 2018 foto 10

Nei quattro trimestri considerati dal report abbiamo una media di circa 700 milioni di account falsi individuati e rimossi dal social.

Cosa sono gli account falsi per Facebook?

A volte le persone creano account falsi su Facebook per rappresentare in modo fuorviante la propria identità. Tuttavia, nella maggior parte dei casi, gli autori di atti illeciti cercano di creare account falsi in grandi volumi e in modo automatico usando script o bot, con l'intento di diffondere spam o condurre attività illecite, ad esempio truffe.

Poiché sono spesso il punto di partenza per altri tipi di violazioni degli standard, facciamo molta attenzione nel bloccare e rimuovere gli account falsi. Migliorare l'eliminazione degli account falsi ci rende più efficaci nell'impedire altri tipi di violazioni. La nostra tecnologia di riconoscimento ci aiuta a bloccare milioni di tentativi di creazione di account falsi ogni giorno e rilevarne più spesso milioni dopo pochi minuti dalla creazione. Nelle metriche qui riportate non includiamo i tentativi di creazione di account falsi che abbiamo bloccato.

Il loro numero aumenta a seconda dei fattori esterni, come gli attacchi informatici che generano account falsi sulla piattaforma:

Gli autori di atti illeciti cercano di creare account falsi in grandi volumi e in modo automatico usando script o bot, con l'intento di diffondere spam o condurre attività illecite, ad esempio truffe. Queste cifre possono anche essere influenzate da fattori interni, tra cui l'efficacia della nostra tecnologia di riconoscimento.

La loro individuazione, come per lo spam, è maggiormente automatica e precede per il 99,6% dei casi le segnalazioni degli utenti.

Diritti di autore e richieste legali

Non esistono soltanto questo genere di contenuti, Facebook tiene conto anche del diritto d'autore e delle violazioni che ne conseguono:

Questi numeri riflettono la quantità totale di contenuti rimossi in base a una segnalazione relativa alla proprietà intellettuale. Su Facebook, questo include tutto, dai singoli post, foto video oppure le pubblicità ai profili, Pagine, gruppi ed eventi, mentre su Instagram potrebbe includere foto, video, pubblicità o account.

La seguente tabella fa riferimento ai dati raccolti nel secondo trimestre del 2018, ultimo periodo per ora pubblicato dalla piattaforma:

Quali e quanti contenuti ha rimosso Facebook nel 2018 foto 11

I contenuti rimossi, divisi per categorie, per violazione del diritto d'autore.

Oltre alle violazioni del diritto d'autore, Facebook riporta anche i dati relativi alle richieste di azione da parte delle autorità pubbliche:

Facebook risponde alle richieste delle autorità relative ai dati ai sensi delle leggi in vigore e delle proprie condizioni d'uso. Viene analizzato il fondamento giuridico di ogni richiesta ricevuta e le richieste eccessivamente ampie o vaghe potrebbero essere rifiutate oppure oggetto di richiesta di maggiori dettagli. Questo grafico fornisce dati sul numero di richieste ricevute e sul tasso di adempimento, totale o parziale, delle richieste delle autorità.

Nella tabella sotto riportata abbiamo il numero delle richieste effettuate dal gennaio 2013 al giugno 2018, per un totale di 103.815 segnalazioni.

Quali e quanti contenuti ha rimosso Facebook nel 2018 foto 12

Il numero di richieste a livello globale da parte delle autorità pubbliche.

Nel Report è possibile consultare il numero relativo ad ogni Paese. Per l'Italia abbiamo un totale di 2.401 richieste delle quali 2.320 successive a un'azione legale e a un processo.