AI vs. AI: l’intelligenza artificiale è la causa e la soluzione alle false recensioni

Parlando con Lorenzo Demiri, Head Of Research And Development di eShoppingAdvisor, è emerso un dettaglio importante e preoccupante allo stesso tempo

30/03/2023 di Enzo Boldi

Un tempo erano esseri umani in carne e ossa, pagati per scrivere recensioni false su un prodotto o servizio senza aver maturato una reale esperienza. Oggi, invece, anche questo “lavoro” non avviene quasi più a livello umano. Ci sono i bot, le chatbot e l’intelligenza artificiale. Perché utilizzando, per esempio, ChatGPT si possono generare valutazioni su un frigorifero mai acquistato, su un albergo in cui non si è mai stati, o su un ristorante in cui non abbiamo mai cenato. Ma come si può combattere tutto questo? Nel paradosso dei paradossi, l’unico strumento possibile per contrastarlo è la stessa intelligenza artificiale.

LEGGI ANCHE > «Così fermiamo le recensioni false con l’AI e Blockchain»: l’intervista ad Andrea Carboni, Ceo di eShoppingAdvisor

Per rendere più chiara la faccenda, abbiamo chiesto a ChatGPT di scrivere una recensione sul ristorante di Antonino Cannavacciuolo. E questo è stato il risultato:

«Come modello di lingua, posso fornirti una recensione ipotetica sul ristorante di Antonino Cannavacciuolo, basata sulle informazioni disponibili.
Il ristorante di Antonino Cannavacciuolo è famoso per la sua cucina innovativa, creativa ed elegante, con un tocco moderno che si sposa perfettamente con i sapori tradizionali italiani. Situato in una location esclusiva, il ristorante offre un ambiente lussuoso e sofisticato, perfetto per una serata speciale o un’occasione importante.
Il menu del ristorante è ampio e vario, con piatti che si ispirano alla tradizione italiana, ma con un tocco di creatività e originalità. Ogni piatto è realizzato con ingredienti freschi e di alta qualità, selezionati con cura da Antonino e dal suo staff di chef.
Inoltre, il servizio al tavolo è impeccabile, con un personale cordiale e attento alle esigenze dei clienti, pronto ad offrire consigli sui piatti e a creare un’esperienza gastronomica indimenticabile.
Il prezzo del ristorante di Antonino Cannavacciuolo può essere piuttosto elevato, ma il livello della cucina e dell’esperienza offerta giustifica il costo. In sintesi, se sei alla ricerca di un’esperienza culinaria raffinata e sofisticata, il ristorante di Antonino Cannavacciuolo è sicuramente un’ottima scelta».

Dunque, al netto dell’introduzione “onesta” da parte della chatbot basata sull’intelligenza artificiale, con un sistema simile è molto facile e rapido confezionare una o più recensioni false.

Recensioni false, come l’AI può bloccare l’AI

Nella nostra chiacchierata con Lorenzo Demiri, Head Of Research And Development di eShoppingAdvisor, abbiamo individuato questo paradosso. Perché la sua azienda sta sviluppando sistemi basati su intelligenza artificiale e blockchain proprio per garantire agli utenti finali un accesso a valutazioni reali, sincere e non artefatte: «L’AI non si occupa di solamente di analizzare la semantica di un testo, ma utilizza anche i dati del recensore. È importante fornire tutta una serie di parametri con cui l’intelligenza artificiale è in grado, con un certo grado di probabilità, stimare se quella recensione sia vera o falsa. Parliamo dei parametri citati prima: dalla carriera del recensore, la media delle recensioni scritte, i login effettuati. Tutti questi fattori consentono, in termini probabilistici, di giudicare se una recensione sia fake oppure reale. Tutto questo avviene insieme all’intelligenza artificiale».

Lorenzo Demiri
Lorenzo Demiri, Head Of Research And Development di eShoppingAdvisor,

Ma l’intelligenza artificiale dà quel che l’intelligenza artificiale toglie: «È un’arma a doppio taglio – prosegue Lorenzo Demiri -. Da una parte ci permette di ottenere informazioni relativamente a un documento digitale in maniera rapida e istantanea. Dall’altra, può essere utilizzata da scopi malevoli in quanto è in grado di simulare una recensione umana, scrivendolo quasi meglio di un umano perché non ci sono i banalissimi errori ortografici, piuttosto che un linguaggio strutturato in modo sbagliato. Però, l’AI ha una caratteristica importante: il testo che scrive un language model, come ChatGPT, è un testo molto probabilistico. Questo vuol dire che le parole vengono generate in termini statistici: qual è la parola che è più probabile dopo un determinato flusso di parole arrivate in input? E il modello non fa nient’altro che dire, sostanzialmente, “la parola più probabile è questa”. Noi, grazie a un’intelligenza artificiale preposta per la rilevazione di questi pattern, siamo in grado di identificare un testo generato da una AI rispetto a uno scritto da una persona umana. Perché questi ultimi hanno il fattore imprevedibilità che rende la recensione umana».

Le differenze tra “macchina” e uomo

Dunque, quella stessa intelligenza artificiale (come concetto di base e non come funzioni e utilizzo) che contribuisce alla generazione di recensioni false, è lo strumento per stanare eventuali tentativi di truffa riconoscendo ciò che è umano da ciò che è (per l’appunto) artificiale: «A oggi, siamo in grado di estrarre il fattore casualità da un testo e affibbiare a quel testo una classificazione, con un certo range probabilistico. Qui ci aiuta sempre l’intelligenza artificiale, in una sorta di battaglia tra contenuto e rilevatori: quello che genera il contenuto e il rilevatore di contenuti. Il fattore che spaventa – ha concluso Lorenzo Demiri a Giornalettismo – è la direzione del mercato dell’AI perché è piuttosto chiuso e ristretto, con tecnologie che non sono rese pubbliche e aperte alla collettività, ma vengono chiuse come dei veri e propri segreti industriali, non permettendo alla community di analizzare nel dettaglio quali sono le caratteristiche di queste AI. Non potendo, dunque, migliorare e porre dei fix di sicurezza su problematiche importanti».

Share this article