«Replika e non solo: la nostra integrità psichica minata da un utilizzo poco consapevole del digitale»

Il punto di vista di Antonino La Tona, psicologo clinico e digitale, nonché CEO di Psiche.org e docente del Master in Psicologia Digitale

07/02/2023 di Redazione Giornalettismo

Il garante della privacy ha bloccato il Chatbot Replika, che grazie all’intelligenza artificiale e all’integrazione di testo e audio crea un amico virtuale per chi lo usa. Lo stop del servizio, che era attivo da ormai cinque anni, è arrivato dopo numerose segnalazioni che denunciavano comportamenti pericolosi che il software mostrava nelle interazioni con i minori e persone emotivamente fragili. Per questo, il garante ha disposto per la società che gestisce il bot – la statunitense Luka Inc – la limitazione provvisoria del trattamento dei dati.

LEGGI ANCHE > Replika non funziona più in Italia dopo la disposizione del Garante Privacy

«The AI companion who cares» («l’amico di intelligenza artificiale che ci tiene»). Così si presenta Replika sul proprio sito, nel quale tanti avatar virtuali ammiccano all’utente e promettono di «parlare di tutto», «esplorare la propria relazione», «fungere da diario personale» e di «scoprire il mondo insieme». Sono già 10 milioni le persone che hanno «conosciuto la propria anima gemella virtuale», si legge. Ma è davvero così?

Chatbot Replika, i risvolti psicologici dell’app

Questa notizia risulta essere particolarmente interessante sia per approfondire i risvolti psicologici connessi ad un uso disfunzionale della tecnologia che per definire i confini (tutt’altro che delineati) delle intelligenze artificiali (AI) e dei chabot al “servizio” delle persone. Personalmente sono d’accordo con la decisione del Garante della privacy, perché in un’epoca iper-digitale necessitiamo di regolamenti precisi che possano proteggere non solo i nostri dati, ormai alla mercé di tutti; ma soprattutto la nostra integrità psichica, spesso minata da un utilizzo poco consapevole del digitale e delle nuove tecnologie emergenti.

Da diversi anni mi occupo di formazione e ricerca riguardante il mondo delle nuove tecnologie (sia a livello professionale che con progetti scolastici mirati) e mai come in questo momento mi sento in dovere di sottolineare l’importanza di un uso consapevole e regolamentato. La fragilità (soprattutto della Gen Z) spesso trova in certi compromessi (come Replika) una valvola di sfogo dai risvolti molto spesso preoccupanti e patologici. Non bisogna sottovalutare l’impatto che le tecnologie hanno su di noi, sulle nostre relazioni e sul nostro modo di vivere noi stessi ed il mondo che ci circonda. Per certi versi l’idea di ‘Her‘ – un film mai troppo celebrato di Spike Jonze del 2013 – non risulta essere più fantascienza e ciò che ci appariva come un mera rappresentazione fantasiosa, oggi si colora di realismo puro.

No demonizzazione, ma sì alle accortezze

Non scrivo questo articolo per demonizzare aprioristicamente la tecnologia, tant’è che sono in primis un ricercatore dell’Università degli Studi di Bergamo che si occupa di digitalizzazione e cure primarie in psicologia e member dell’eMental Health Italy working group del team del Prof. Angelo Compare: fare ricerca, formazione e sensibilizzazione su questi temi è il mio lavoro. La pericolosità delle nuove tecnologie risiede nel sottovalutare le potenzialità (positive e negative) che; a seconda della modalità e ragione di utilizzo, possono emergere e determinare ora una grandissima risorsa (psicologico/culturale) ora una grandissima minaccia psico-sociale.

La tecnologia non è un male, ma bisogna garantire a tutti un utilizzo consapevole dei rischi e delle opportunità (infinite), per evitare problematiche come quelle emerse con la chatbot Replika o situazioni sempre più comuni come il Cyberbullismo ed il Tecnostress: per tale ragione percorsi di approfondimento e sensibilizzazione digitale a mio avviso sono fondamentali sia per le nuove generazioni che per coloro che gioco-forza vivono immersi nelle nuove tecnologie.

Gli esempi di chatbot “positive”

Le potenzialità sono infinite. Da alcuni anni si guarda con sempre maggiore interesse all’impiego delle tecniche di intelligenza artificiale non solo per il riconoscimento e il tracciamento di gusti, interessi e tendenze degli utenti online per finalità di marketing, bensì anche delle loro emozioni e dei loro stati d’animo attraverso, ad esempio, l’analisi del linguaggio utilizzato su Web, così come delle immagini e dei video condivisi, fino ad arrivare – nei sistemi più evoluti – all’analisi dei dati biometrici, tra cui mimica del volto, tono della voce, frequenza cardiaca e ritmo della respirazione.

Un esempio di cui posso parlare è sicuramente uno studio sperimentale che stiamo portando avanti (all’Università degli studi di Bergamo) per aiutare i pazienti diabetici con sindrome metabolica nel migliorare la loro condizione di salute (mentale e fisica) utilizzando un chatbot motivazionale. Oppure un altro studio in fieri che utilizzerà (AI) per determinare i rischi di declino cognitivo in soggetti fragili ed anziani, o ancora uno studio che si propone di incidere negli stili di vita degli studenti universitari (alimentazione ed esercizio fisico) tramite l’utilizzo di un chatbot specifico che utilizza tecniche come la Mindfulness. Queste sono solamente alcune delle infinite potenzialità che nei prossimi anni modificheranno il nostro modus vivendi. Siamo pronti? Replika, OpenAI ecc… è un processo che ormai è iniziato: sapremo farci trovare pronti?

[Articolo a cura di Antonino La Tona, psicologo clinico e digitale, CEO di Psiche.org e docente del Master in Psicologia Digitale]

Share this article