Alexa ha consigliato a una bambina una sfida pericolosa diventata virale su TikTok

Si tratta della "Penny Challenge", sfida rischiosa che ha a che fare con l'elettricità e che girava su TikTok circa un anno fa

28/12/2021 di Ilaria Roncone

A rendere nota la faccenda è stata la madre della bambina che si è sentita proporre da Alexa la pericolosa challenge diventata virale su TikTok e già ampiamente criticata. Una bambina che stava cercando qualcosa da fare ha chiesto un suggerimento ad Alexa e, come ha raccontato su Twitter sua madre Kristin Livdahl, si è vista suggerire la Penny Challenge o Outlet Challenge (sfida della presa), che prevede di collegare un caricabatterie alla presa parzialmente, in modo che i poli rimangano esposti, e di lasciarvi cadere sopra una moneta. Gli effetti sono stati commentati come altamente pericolosi senza alcuna esitazione dai funzionari dei vigili del fuoco negli Stati Uniti, e vanno da scosse elettriche a incendi. Alexa suggerisce challenge pericolose, quindi, e Amazon ha provveduto immediatamente a rimediare.


LEGGI ANCHE >>> Le scuse di Alexa che rispondeva “No grazie, non è un anniversario della Liberazione” agli auguri per il 25 aprile

Perché Alexa suggerisce challenge pericolose?

Il punto è che, vedendosi chiesta una sfida, Alexa ha ripreso un articolo sul sito Ourcommunitynow.com che spiegava in cosa consiste la sfida nelle prime righe – la parte che Alexa ha effettivamente letto – sottolineando però, poi, quanto pericoloso sia un gesto del genere. Non appena saputo, Amazon ha provveduto a rimediare rilasciando una dichiarazione, come riporta BBC: «La fiducia dei clienti è al centro di tutto ciò che facciamo e Alexa è progettato per fornire informazioni accurate, pertinenti e utili ai clienti. Non appena siamo venuti a conoscenza di questo errore, abbiamo agito rapidamente per correggerlo».

L’errore di Alexa è dato dal fatto che l’AI si sia fermato all’analisi delle sole prime righe o, comunque, al fatto che la pericolosità dell’atto fosse chiarita solo nelle righe successive. Questo, automaticamente, vuol dire che Alexa non è in grado di analizzare – almeno attualmente – l’interezza dei testi che propone e che, a prescindere da cosa c’è scritto nel documento suggerito, non capisce la pericolosità di un’azione che va a suggerire. Un grandissimo e potenzialmente pericolosissimo limite che è stato evidenziato e corretto. Ad Amazon il compito di monitorare che fatti come questo non accadano frequentemente.

Share this article
TAGS