Come si applica il concetto di bias cognitivo all’intelligenza artificiale
Anche gli algoritmi dell'intelligenza artificiale sono condizionati da alcuni errori e da alcune defaillance che sono tipiche dell'essere umano
21/02/2025 di Redazione Giornalettismo

Nell’ultimo periodo, a proposito di intelligenza artificiale, si è discusso di quei profili legali che riguardano l’impiego di questa nuova tecnologia. Soprattutto, a livello di Unione Europea, è stato approvato il regolamento denominato AI Act, il cui primo relatore è stato proprio l’eurodeputato italiano Brando Benifei. Anche negli Stati Uniti il tema è stato già affrontato dal punto di vista del legislatore con l’approvazione dell’AI Bill of Rights. Ovviamente, all’interno di queste leggi, si stanno prendendo in considerazione degli aspetti “tecnici” legati all’impiego dell’intelligenza artificiale: i limiti, ad esempio, del riconoscimento facciale, l’applicazione all’interno di campi sensibili dal punto di vista etico, la possibilità di condividere e di diffondere in maniera illecita dati personali. Secondo quanto raccolto in più occasioni da Giornalettismo, poi, l’Unione Europea ha preso in considerazione – sempre per quanto riguarda l’intelligenza artificiale – la questione del copyright applicato alle immagini generate dall’AI, per tutelare quegli artisti i cui stili sarebbero stati “copiati” dai vari strumenti di intelligenza artificiale che si applicano a prodotti visuali. Tuttavia, al di là della domanda sulla creatività dell’intelligenza artificiale che riprende quella umana, occorre capire se quest’ultima commetta anche gli stessi errori che sono tipici dei nostri comportamenti. Insomma, quelli che noi chiamiamo bias cognitivi esistono anche nell’intelligenza artificiale?
- Bias nell’intelligenza artificiale, quali sono i più comuni
- Quali sono i diversi tipi di bias presenti nei sistemi di AI?
LEGGI ANCHE > «Papa Benedetto XVI è in buona salute» e l’amatriciana con la cipolla: i limiti di ChatGPT
Bias nell’intelligenza artificiale, quali sono i più comuni
I bias cognitivi sono quelli che normalmente generiamo sulla base della nostra realtà soggettiva di riferimento. A volte possono rappresentare delle vere e proprie scorciatoie, quando non delle esemplificazioni, per raggiungere un obiettivo, senza prendere in considerazione la complessità del percorso che, normalmente, dovrebbe essere corretto per arrivare all’obiettivo stesso. Essendo l’intelligenza artificiale un prodotto dell’intelligenza umana, ed essendo la prima una estensione che ha bisogno dell’«educazione» da parte della seconda, possiamo dire che conserva, a livello algoritmico, anche le deviazioni dei bias cognitivi.
I bias nell’intelligenza artificiale sono inclinazioni o pregiudizi presenti nei sistemi di intelligenza artificiale che possono influire sulla loro capacità di prendere decisioni o produrre risultati accurati. Questi bias possono avere conseguenze gravi, sia a livello individuale che a livello sociale.
Una delle principali cause dei bias nell’intelligenza artificiale è l’utilizzo di dati non rappresentativi o di bassa qualità per addestrare il sistema. I differenti tipi di bias presenti in un campione di dati possono derivare da scelte errate nella fase di progettazione dell’esperimento o dal bias cognitivo presente nell’agente umano che genera o raccoglie i dati.
Ci sono diverse misure che possono essere adottate per prevenire e correggere i bias nell’intelligenza artificiale. Una di queste è l’utilizzo di dati rappresentativi e di alta qualità per addestrare il sistema. Inoltre, è possibile utilizzare algoritmi che consentono di identificare e correggere il bias presente nei dati.
Quali sono i diversi tipi di bias presenti nei sistemi di AI?
Ci sono dei pregiudizi algoritmici che possono causare discriminazioni sociali: per alcuni gruppi di persone, ad esempio, il machine learning non esclude la possibilità di preferire dei caratteri somatici rispetto ad altri. Giornalettismo ha parlato, tempo fa, di un “pregiudizio” dell’algoritmo di Twitter nel crop delle immagini in timeline: il sistema automatico usato dal social network successivamente acquistato da Elon Musk dimostrava di preferire immagini di persone bianche, giovani, magre e dalle caratteristiche femminili.
Ma oltre a questi pregiudizi algoritmici che causano discriminazioni sociali, ci sono altri tipi di bias che possono essere presenti nei sistemi di intelligenza artificiale. Ad esempio, il bias di selezione può derivare dal fatto che i dati utilizzati per addestrare il sistema sono stati raccolti in modo selettivo o sono stati estratti da una popolazione non rappresentativa. Inoltre, il bias di conferma può derivare dal fatto che il sistema tende a confermare le proprie aspettative invece di valutare in modo oggettivo i dati. Infine, il bias culturale può derivare dal fatto che i dati utilizzati per addestrare il sistema riflettono i pregiudizi culturali della società in cui sono stati raccolti.
In conclusione, i bias nell’intelligenza artificiale rappresentano una sfida importante per gli sviluppatori di tecnologie intelligenti. Tuttavia, adottando misure adeguate per prevenire e correggere questi bias, è possibile sviluppare sistemi di intelligenza artificiale più accurati e affidabili.