L’IA assorbe i nostri bias cognitivi (?)

E se le intelligenze artificiali acquisissero i “bias congitivi” umani e addirittura riuscissero a svilupparli in autonomia? Uno studio di IBM svela cosa può succedere alle macchine e prova a dare una soluzione per evitare il dilagare di un pregiudizio.

Partiamo dal concetto di bias utilizzato per la prima volta da due psicologi Amos Tversky e Daniel Kahneman che avviarono un programma di ricerca denominato “Heuristics and Bias Program”. Il loro obiettivo era quello di capire il perché reale di alcune decisioni adottate dagli essere umani. Si tratta di decisioni prese in condizioni di incertezza, ambiguità oppure da una scarsità di risorse disponibili. Perciò il termine bias indica un “giudizio” (o pregiudizio) che non corrisponde necessariamente all’evidenza e che si sviluppa a seguito di alcune informazioni di cui si è venuti in possesso e che fanno commettere all’uomo degli errori di valutazione e/o una mancanza di oggettività nel giudizio. Esistono anche tanti tipi di bias cognitivi (oltre 100), alcuni molto diversi tra loro.

Ma cosa c’entrano i bias cognitivi con l’intelligenza artificiale?

Un esperimento del MIT e dell’Università di Cardiff ha dimostrato che l’uomo può trasmettere i prorpi errori cognitivi all’IA e questo tratto piuttosto umano delle macchine ha incominciato ad essere preso seriamente in considerazione provando a cercare una soluzione ottimale. Questi pregiudizi vengono trasmessi non solo da chi programma le intelligenze (e dunque il passaggio uomo-macchina) ma anche possono essere anche sviluppati dalle macchine stesse in maniera del tutto autonoma. Questo può succedere dal momento che i bot hanno la capacità di imparare l’uno dall’altro.

Dunque l’IA assorbe il pregiudizio umano e questo potrebbe generare alcune discriminazioni che possono riguardare la sfera politica, economica, sociale e di genere.

La soluzione fornita da IBM è quella della costituzione di una Dichiarazione di Conformità in grado di rendere l’IA in realtà impermeabile a tali bias cognitivi umani che vengono trasmessi attraverso un’analisi degli studi che hanno portato l’uomo a fare quel tipo di sviluppo sull’IA. In questo modo ognuno può indicare se sia il caso di adottare o meno quel sistema. Dunque ogni programmatore dovrebbe esplicare la propria policy e mostrare così la modalità utilizzata per rendere l’IA immune al pregiudizio.

Altri articoli dell'autore

Puoi leggere anche...

564FansLike
1,517FollowersFollow
Advertisment

Ultime notizie

Energia intelligente

Il concetto di energia intelligente Si instaura con la Decisione n. 1639/2006/CE del Programma Energia Intelligente Europa (EIE), il quale prevedeva tra i suoi obiettivi...

Auto elettriche e le sigle kW e kWh

Promuovere le auto elettriche Siamo sulla strada della mobilità sostenibile e ci stiamo avvicinando al primo obiettivo europeo (2030) per un drastico abbattimento delle emissioni...

Il DIHV incontra l’ISPRA

In occasione del consueto appuntamento mensile, il Digital Innovation Hub Virtuale si è riunito in call conference per approfondire e discutere la tematica relativa...

Vuoi avere le notizie aggiornate ogni mercoledi?

Iscriviti alla newsletter

LinkedIn
LinkedIn
Share