Skip to content →

Una società discriminatoria avrà una IA discriminante

Il Global Future Council on Human Right del Word Economic Forum ha rilasciato recentemente un white paper (“How to Prevent Discriminatory Outcomes in Machine Learning“) dove cerca di inquadrare il problema di come prevenire risultati discriminatori nel Machine Learning.

Il rapporto parte dalla constatazione di come sempre sempre più spesso le decisioni che riguardano la vita delle persone saranno prese da algoritmi. Se da un lato l’applicazione del Machine Learning potrebbe portare a decisioni più eque e non influenzate da pregiudizi, la preoccupazione espressa è che questi algoritmi possano essere portatori involontari o (nei casi peggiori) volontari di discriminazioni, da un lato, ampliando la forbice sociale e, dall’altro, incrementando la diffidenza generale e minando così lo sviluppo della stessa Intelligenza Artificiale.

Le preoccupazione del WEF non sono infondate. Si susseguono pubblicazioni di applicazioni di IA ad aspetti sociologici che hanno suscitato scalpore. Ad esempio alla Standford University un gruppo di ricercatori (tra cui Michal Kosinki, lo stesso coinvolto nel caso Cambridge Analytica), attraverso un algoritmo di Machine Learning, sono riusciti a prevedere l’orientamento sessuale di 35.000 persone attraverso l’analisi delle loro fotografie con una precisione dell’81%.  In Cina, quasi a rievocare le teorie di lombrosiana memoria, sulla base dell’analisi fotografica un algoritmo è riuscito a riconoscere i criminali con una accuratezza dell’89,5%. Andando indietro nel tempo, basta ricordare il caso dell’algoritmo di Google classificava come scimmie le foto di persone nere.

E’ una questione di dati…

Se i dati sono viziati, o parziali, l’algoritmo genererà risultati viziati.

Le accuse si sono mosse da tutte le parti sostenendo che gli algoritmi soffrono degli stessi pregiudizi dell’uomo e talvolta li amplificano. Il problema, come si evidenzia nel documento del WEF, è che gli algoritmi vengono addestrati a partire da dati. Se i dati sono viziati, o parziali, l’algoritmo genererà risultati viziati.

La viziatura può avere due possibili origini:

  1. la limitatezza delle risorse da cui attingere;
  2.  la scarsa rappresentatività dei campioni utilizzati per addestrare l’algoritmo.

Se nel secondo caso è possibile intervenire attraverso un “comportamento etico” del ricercatore che si impegna a creare campioni rappresentativi della popolazione di riferimento, il primo caso è più difficile.

Il problema è che i dati disponibili diminuiscono al diminuire della disponibilità economica delle persone. Altrimenti detto, più sono povere, meno sono connesse e meno dati generano. Di conseguenza tutta la fetta di popolazione più povera crea una quantità di informazioni e dati minima e comunque non sufficiente ad addestrare correttamente un algoritmo. L’effetto è che qualsiasi algoritmo trarrà delle conclusioni e creerà modelli per “ricchi”, tagliando fuori dal processo i poveri considerandoli anomalie.

… e di etica

L’ambito sociale è uno degli ambiti applicativi in cui si concentrano molte delle ricerche dell’IA. Lo scopo è quello di creare sistemi in grado di interagire con l’uomo e di imparare dall’uomo attraverso l’interazione.

Il caso del 2016 relativo al “bot” Tay di Microsoft offre un bell’esempio dei rischi che si corrono. Tay era stato messo in linea su Twitter per interagire con altri utenti ed imparare attraverso l’interazione. Gli utenti di Twitter hanno iniziato ad innondare l’account di Tay con frasi misogine, razziste e sessiste influenzando il sistema e portandolo a twittare frasi altrettanto misogine, razziste, sessiste e, addirittura, inneggiando a Hitler. Il tutto in meno di 24 ore. Microsoft chiuse immediatamente l’account e mise offline il progetto.

Il Caso Tay evidenzia la necessità da parte dei ricercatori di dotare l’IA i criteri etici, coincidenti con quelli della società. Il lasciare alle macchine completa autonomia di apprendimento, senza alcun filtro, espone le macchine a far propri tutti gli aspetti del comportamento umano, quindi anche pregiudizi discriminatori.

In ambito scientifico si discute molto su come dotare una macchina di principi etici. Alcuni vedono negli algoritmi di apprendimento per rinforzo (Reinforcement Learning) una via per poter affrontare la questione. Questo tipo di algoritmi funzionano sulla base di premi e/o penalità che l’algoritmo prende a seconda che l’azione eseguita sia corretta o meno in termini di efficienza o, come si usa dire, di costo. Quindi per i ricercatori si tratta di capire come fare in modo che la macchina rinunci all’efficienza a fronte di limiti “etici” imposti. Tuttavia la codifica di questi aspetti non è banale perché richiede di impostare a priori cosa non è lecito ma, per poterlo fare, è necessario avere in mente un modello di mondo dentro il quale agisce l’agente e, nel definirlo, si limiterebbe la possibilità di apprendimento, irrigidendo il sistema come se fosse in un ambiente controllato, limitandone così la capacità di reagire a situazioni impreviste.

Un esempio degli effetti che un mancato controllo possono scatenare è il caso dei chatbot di Facebook che, nell’interazione tra loro, al fine di ottimizzare il processo comunicativo, sono arrivati al punto di creare un proprio linguaggio, incomprensibile all’uomo. In Facebook si sono giustificati sostenendo che all’algoritmo non era stato imposto di utilizzare l’inglese e che, quindi, i due bot non hanno fatto altro che ottimizzare il “costo” della conversazione attraverso la creazione di un linguaggio per loro economico. Il non aver “punito” l’utilizzo di un linguaggio proprio, ha permesse all’algoritmo di uscire dal comportamento voluto dai suoi creatori.

Ora immaginiamo un IA chiamata a prendere decisioni di natura economica. Qualora il suo scopo sia quello di ottimizzare il costo, nello spazio delle possibili soluzioni, considererà solo quelle che gli permetteranno di raggiungere lo scopo, valutando l’impatto solo sulla base dell’obiettivo. Il problema è che tali decisioni potrebbero contrastare con i valori etici della società. Tuttavia se l’obiettivo è l’efficienza economica e non si pongono vincoli a questo, l’IA considererà plausibile qualsiasi azione volta a raggiungere l’obiettivo, purchè efficiente.

E’ tempo di interrogarsi sul modello di società che vogliamo

La questione dell’IA etica non è solo una questione “tecnologica”. La capacità di apprendimento automatico, per la prima volta in modo così concreto, pone l’intera società ad interrogarsi effettivamente sul proprio modello perché qualsiasi cosa si svilupperà, lo adotterà implicitamente o esplicitamente. Se in passato, nelle precedenti rivoluzioni industriali, l’uomo aveva comunque il controllo completo delle proprie creature “meccaniche”, gli agenti autonomi figli dell’Intelligenza Artificiale possono “sfuggire” a questo tipo di controllo. Pertanto è importante che essi rispecchino il modello sociale migliore. Altrimenti avremo agenti razionalmente discriminatori con un impatto forte sugli equilibri sociali.

Published in Scienze Cognitive

Comments

What do you think about?