Cos’è Norman, la prima intelligenza artificiale psicopatica

05 Giugno 2018 17.54
Like me!

Dopo le intelligenze artificiali razziste e sessiste arriva anche quella psicopatica, che a forza di 'vedere' immagini macabre dà delle risposte inquietanti al test delle macchie di Rorschach. A realizzarla, proprio per dimostrare come il modo in cui si addestrano questi algoritmi può influenzare pesantemente il loro comportamento successivo, sono stati gli esperti del media lab del Mit, che l'hanno chiamata Norman in "onore" del protagonista di Psycho, Norman Bates.

L'algoritmo che ha dato vita a Norman è capace di osservare una foto e capirne il contenuto dopo aver costruito un database da immagini precedenti. I ricercatori lo hanno "allenato" con delle immagini di persone morenti prelevate da una sottodirectory del sito Reddit, mentre un'altra intelligenza artificiale è stata addestrata con foto normali di animali e persone. Entrambe sono state poi sottoposte al famoso test di Rorschach, in cui viene chiesto di interpretare delle macchie di inchiostro indistinte per valutare la personalità.

Le differenze tra le due interpretazioni sono risultate evidenti. La macchia con l'intelligenza 'normale' interpretava come "un gruppo di uccellini su un ramo" per Norman era "un uomo che subiva una scarica elettrica". Un "vaso di fiori" diventava "un uomo a cui hanno sparato a morte". Un "guanto da baseball" è stato interpretato come "un uomo ucciso da una mitragliatrice".

PROBLEMA SONO I DATI USATI PER CREARE LE AI. «Norman nasce dal fatto che i dati che vengono usati per addestrare un algoritmo influenzano significativamente il comportamento», hanno scritto gli ideatori sul sito dedicato a Norman, in cui peraltro è possibile 'aiutarlo' a correggere il tiro facendo il test di Rorschach e sottoponendogli le risposte. «Quindi quando le persone parlano di algoritmi 'razzisti' o 'scorretti' il problema non è nell'algoritmo in sé, ma nei dati usati».

Il problema è già emerso diverse volte in passato. L'esempio più famoso è quello di Tay, l'intelligenza artificiale sviluppata da Microsoft sotto forma di utente di Twitter, che pochi giorni dopo il lancio è diventata razzista a causa dei commenti che leggeva. Uno studio su Science di circa un anno fa ha poi dimostrato che gli algoritmi incorporano gli stessi pregiudizi di chi li programma, e per esempio associano termini più negativi alle minoranze etniche o legati ai lavori domestici alle donne.

© RIPRODUZIONE RISERVATA

ARTICOLI CORRELATI

Commenti: 0

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *