L’emoji della carota inganna l’algoritmo di FB e nasconde la disinformazione sui vaccini

Sui gruppi Facebook, per non essere bannati o vedersi chiudere il gruppo, gli utenti sostituiscono alla parola "vaccino" l'emoji carota

16/09/2022 di Giordana Battisti

Su alcuni gruppi di Facebook gli utenti stanno utilizzando l’emoji della carota per nascondere i contenuti No-Vax dagli strumenti di moderazione automatizzati in quanto gli algoritmi di Facebook tendono a concentrarsi sulle parole piuttosto che sulle immagini per moderare i contenuti. Solitamente, l’emoji sostituisce la parola «vaccino». Su questi gruppi – come è facile immaginare – vengono spesso veicolare informazioni false sul coronavirus e sui vaccini. Per questo motivo, la BBC ha avvisato Meta che ha provveduto a rimuovere alcuni gruppi ma questo non risolve il problema perché ne vengono creati di nuovi. «Abbiamo rimosso questo gruppo per aver violato le nostre politiche di disinformazione dannosa e esamineremo qualsiasi altro contenuto simile in linea con questa politica. Continuiamo a lavorare a stretto contatto con esperti di salute pubblica e il governo del Regno Unito per affrontare ulteriormente la disinformazione sul vaccino Covid», ha affermato l’azienda in una dichiarazione. La BCC riporta che le regole di uno dei gruppi esaminati impongono di usare «parole in codice per tutto» e aggiunge di non usare mai «la c word, v word or b word» cioè le parole «covid», «vaccino» e «booster», cioè richiamo. Questo gruppo è stato creato più di un anno fa e conta più di 250.000 membri.

Marc Owen-Jones, ricercatore sulla disinformazione e professore associato presso l’Università Hamad Bin Khalifa in Qatar, è stato invitato a farne parte. Su Twitter ha pubblicato degli screenshot di alcuni post che vengono pubblicati su questi gruppi.

LEGGI ANCHE > Telegram starebbe testando una funzione “Premium” con nuovi emoji e adesivi

Non solo l’emoji della carota: quali sono le altre che veicolano un messaggio nascosto?

La studentessa Hannah Rose Kirk ha pubblicato un articolo sul blog dell’Oxford Internet Institute intitolato How Artificial Intelligence Can Help Tackle Racist Emoji in Football e prende le mosse dal fatto che alcuni social network sono stati criticati per non aver bloccato o rimosso emoji utilizzate come insulto razzista contro alcuni calciatori neri.

I giganti della tecnologia utilizzano algoritmi per cercare sulle loro piattaforme contenuti dannosi, ma sono addestrati principalmente su parole e testo, ha scritto Kirk. Rose Kirk faceva parte di un gruppo di ricerca che ha creato uno strumento chiamato HatemojiCheck: una lista di controllo per identificare le aree in cui i sistemi di intelligenza artificiale non gestiscono molto bene gli abusi basati su emoji.

Nell’ultimo anno, per esempio, è diventato il noto il caso degli account Twitter che utilizzano l’emoji del mattone nella biografia o nell’username per identificarsi come appartenenti a gruppi o ideologie di estrema destra. Sempre su Twitter, anche l’emoji del dinosauro ha avuto una storia controversa: da emoji utilizzata dalla comunità LGBTQ+ a simbolo “distintivo” degli utenti che pubblicano perlopiù materiale discriminatorio contro le persone trans.

Share this article