Il problema dell’allineamento dell’AI: cos’è e che sfide mette in campo

Del problema di un mancato allineamento dell'AI (AI alignment) si parla da diverso tempo. Capiamo di che cosa si tratta partendo dalla definizione e facendo una serie di esempi pratici

22/06/2023 di Ilaria Roncone

Quello dell’allineamento AI è un problema sul quale si discute da tempo. Per capire bene la situazione e mettere tutti i tasselli che abbiamo a disposizione – almeno finora – nel posto giusto, partiamo da una definizione. Per allineamento dell’AI nel campo dello studio dell’intelligenza artificiale si intende il trovare un modo per guidare i sistemi AI verso specifici obiettivi, principi e preferenze che rispettino l’etica umana. Di un sistema AI si può dire che è allineato quando porta avanti gli obiettivi prefissati, ovvero non si sviluppa in maniera randomica ma tiene conto dei principi etici degli esseri umani.

LEGGI ANCHE >>> Il White Paper di OpenAI e la definizione di strumento “ad alto rischio”

Il problema dell’allineamento AI

Una macchina, semplicemente, non ha gli stessi valori di un essere umano. E proprio qui che si collocano le sfide dell’umanità, quella sorta di briglia che andrebbe messa per guidare non solo lo sviluppo dell’intelligenza artificiale ma anche l’uso dell’intelligenza artificiale in maniera etica. A quest’ultimo proposito, per esempio, vale la pena citare il recente annuncio di Bild – realtà editoriale tedesca – che ha messo alla porta duecento lavoratori i cui ruoli (dai caporedattori ai segretari di redazione passando per i photo editor) saranno ricoperti dall’intelligenza artificiale a partire da gennaio 2024.

Un interessante esempio lo ha fatto il filosofo di Oxford Nick Bostrom: se si chiede a una macchina intelligente di creare graffette, questa potrebbe arrivare a distruggere il mondo intero ricercando materie prime per farlo. Il punto è che – se non glielo si insegna – un AI non conosce concetti come il valore della vita umana o il rispetto dell’ambiente o, ancora, che alcuni materiali sono troppo preziosi per essere trasformati in graffette. Brian Christian, autore del libro “The Alignment Problem – How AI Learns Human Values”, ha fatto un altro esempio molto calzante di caso in cui l’AI non è allineato: nel 2018 in Arizona Elaine Herzberg è stata investita da un veicolo con guida automatica di Uber ed è morta. Le indagini del National Transportation Safety Board hanno indagato sulle cause dell’impatto scoprendo che la donna stava spingendo una bici lungo la strada, praticando il cosiddetto jaywalking (ovvero camminare lungo la strada in un punto in cui un pedone non dovrebbe essere). Il fatto di non essere stato istruito a trovare una persona in mezzo alla strada, che assumesse un comportamento di cui non conosceva l’esistenza, ha fatto sì che la donne fosse colpita.

Una volta che si insegnano i valori, però, vanno tenuto in considerazioni questioni come i bias razziali o la discriminazione delle minoranze: se si affida a un’AI il compito di selezionare curriculum per un impiego, il sistema potrebbe compiere questa azione cadendo preda dei bias che sono stati condivisi con lui nell’addestramento.

Il punto è che l’AI offre molte possibilità, apre le porte a rivoluzioni, ma l’utilizzo deve essere regolamentato nel modo giusto (come sta provando a fare l’Ue, con l’arrivo dell’AI Act).

Share this article
TAGS