Sai Kiran Anagani 61187 (1)
14 Maggio Mag 2017 1500 14 maggio 2017

Nemmeno l'intelligenza artificiale è immune dai pregiudizi

Gli algoritmi generano la propria conoscenza analizzando enormi dataset. E se trovano un trend prevalente, quasi automaticamente vi si adeguano. Proprio come gli esseri umani.

  • ...

Sebbene abbiano lo stesso identico curriculum, per colpa del suo nome afro-americano Leroy ha una minore probabilità di ricevere offerte di lavoro rispetto ad Adam, che ha un nome tipicamente europeo-americano. E per una donna chiamata Megan probabilmente sarà più facile trovare impiego come infermiera che come esperta di marketing.

ASSOCIAZIONI IMPLICITE. È quanto emerge da una recente ricerca della Princeton University che ha analizzato le correlazioni generate da un algoritmo di intelligenza artificiale su oltre 2 milioni di parole. Dallo studio emerge che, come accade per le persone, anche i computer tendono a creare associazioni implicite. Così, nel nostro cervello, i nomi di fiori sono generalmente correlati a reazioni (ed azioni) positive, al contrario degli insetti che sono tipicamente collegati ad aspetti sgradevoli.

DEVIANZA TECNOLOGICA. Gli algoritmi di intelligenza artificiale generano infatti la propria conoscenza analizzando enormi dataset, ovvero collezioni di documenti. E se da questi dataset emerge un trend prevalente, quasi automaticamente l’algoritmo costruisce i propri modelli metabolizzando questi input, come gli umani generano stereotipi e pregiudizi. Questa devianza tecnologica è costata a caro prezzo anche a Microsoft che, nel marzo 2016, ha dovuto “sospendere per aggiustamenti” la chatbot Tay, rilasciata solo 16 ore prima.

Tay era (va usato un verbo al passato, visto che il progetto è definitivamente naufragato) un software che avrebbe dovuto simulare una conversazione umana con gli utenti di Twitter, replicando in modo automatico ai messaggi degli altri utenti. Dopo aver ricevuto una serie di messaggi offensivi, razzisti e sessisti, l’algoritmo ne ha assorbito il modello e ha iniziato a replicare con lo stesso stile. I primi tweet amichevoli («Hello World») hanno lasciato quindi il posto ad altri cinguettii di tutt’altro stile («Bush did 9/11 and Hitler would have done a better job than the monkey we have now» , «I love feminism now» e così via).

PREOCCUPAZIONE CRESCENTE. Per queste ragioni, nel mondo scientifico (e non solo) esiste una crescente preoccupazione per gli effetti derivanti dall’utilizzo di dataset non bilanciati, e che non includono una diversità di opinioni, come dati campione per addestrare gli algoritmi di intelligenza artificiale. Joy Buolamwini, del Mit Media Lab e a capo della Algorithmic Justice League, si spinge oltre, evidenziando come il settore It, quello che sviluppa gli algoritmi di intelligenza artificiale, sia storicamente un ecosistema non diversificato. A supporto delle sue tesi cita alcune statistiche ufficiali relative alla composizione degli staff di Google, Microsoft e Facebook. Ad esempio, Facebook dichiara una presenza femminile del 33% ed una percentuale di Black del 3%.

QUESTIONE DI DATASET E STAFF. Di fatto, la ricercatrice sottolinea l’importanza per il risultato finale di disporre di migliori dataset, ma anche di staff caratterizzati da un «ampio spettro di esperienze e diversità» (razza, etnia, sesso, orientamento sessuale, abilità, ecc.). Qualunque sia la strategia scelta, il sistema di intelligenza artificiale che governerà nel 2025 il nostro ospedale non dovrà dare priorità di cura ad Adam, discriminando Jamal, senza un reale e giustificato motivo.

© RIPRODUZIONE RISERVATA

Correlati