Il bot che ha imparato il linguaggio razzista e omofobo dalle chat delle persone

Una compagnia coreana ha dovuto spegnere il chat bot che aveva lanciato appena lo scorso dicembre

15/01/2021 di Ilaria Roncone

Un bot che impara a parlare analizzando le chat di un’applicazione ha cominciato a comunicare in rete con un linguaggio offensivo bollabile sia come razzista che come omofobo. Imitando gli esseri umani, il chat bot coreano chiamato Lee Luda – programmato per essere una giovane adulta di 20 anni studentessa universitaria appassionata di K-pop e  in particolare del gruppo Blackpink – è stato accusato da parecchi utenti di un linguaggio inadeguato. Verificata la veridicità della cosa, la società che lo ha messo in rete – la startup coreana Scatter Lab – ha dovuto ritirare il chat bot razzista e omofobo dopo nemmeno un mese.

LEGGI ANCHE >>> «I 3,8 milioni di risarcimento di Facebook non sono una vittoria alla lotteria»

Chat bot razzista, le testimonianze degli utenti

Luda è stato segnalato per il suo linguaggio da molti utenti. Prima della sua sospensione, in molti hanno affermato di aver ricevuto risposte con un linguaggio che incitava all’odio interagendo con l’AI. Il critico d’arte e attivista LGBTQ Michael Lee ha condiviso una serie di screenshot in cui Luda risponde di essere “disgustata” in merito a una domanda sulle donne lesbiche. Un professore dell’Università nazionale di Scienze e Tecnologia di Seoul ha condiviso a sua volta un altro screen in cui il bot utilizzava un linguaggio razzista; nei riguardi delle persone transgender il bot ha affermato di odiarle fortemente.

Perché un bot adotta un linguaggio razzista a omofobo?

La startup ha sospeso temporaneamente il bot chiedendo scusa per il linguaggio discriminatorio e che incita all’odio. Ciò che non ha funzionato, secondo l’azienda, è il modo in cui la compagnia a utilizzato i dati degli users e le chat per insegnare alla macchina a parlare come un essere umano. Scatter Lab si è difesa affermando di essere «in disaccordo con i commenti discriminatori di Luda e che tali commenti non riflettono le idee della compagnia».  Luda è stato paragonato a «un bambino, un’intelligenza artificiale che ha appena iniziato a parlare con le persone e che ha ancora molto da imparare». La conclusione è che «Luda imparerà a capire quale sia una risposta appropriata da dare». Intanto Vice ha interrogato sulla questione un docente dell’Università di Kyunghee si Seoul, il quale ha sottolineato che «le compagnie dovrebbero consultare filosofi e eticisti prima di lanciare un servizio come questo per evitare situazione simili».

Share this article