Norma Intelligenza Artificiale Psicopatica
Scienza e Tech
5 Giugno Giu 2018 1954 05 giugno 2018

Cos'è Norman, la prima intelligenza artificiale psicopatica

Degli esperti del media lab del Mit hanno creato un'IA per dimostrare come operano i meccanismi conoscitivi anche in presenza di immagini macabre. I risultati spiegati con il test di Rorschach.

  • ...

Dopo le intelligenze artificiali razziste e sessiste arriva anche quella psicopatica, che a forza di 'vedere' immagini macabre dà delle risposte inquietanti al test delle macchie di Rorschach. A realizzarla, proprio per dimostrare come il modo in cui si addestrano questi algoritmi può influenzare pesantemente il loro comportamento successivo, sono stati gli esperti del media lab del Mit, che l'hanno chiamata Norman in "onore" del protagonista di Psycho, Norman Bates.

In questa immagine utilizzata per il famoso test di Rorschach un'intelligenza artificiale 'normale' vede 'un aereo che vola nell'aria con il fumo che esce da esso', mentre l'intelligenza artificiale psicopatica ribattezzata 'Norman' vede 'un uomo sbalzato fuori da una macchina'

L'algoritmo che ha dato vita a Norman è capace di osservare una foto e capirne il contenuto dopo aver costruito un database da immagini precedenti. I ricercatori lo hanno "allenato" con delle immagini di persone morenti prelevate da una sottodirectory del sito Reddit, mentre un'altra intelligenza artificiale è stata addestrata con foto normali di animali e persone. Entrambe sono state poi sottoposte al famoso test di Rorschach, in cui viene chiesto di interpretare delle macchie di inchiostro indistinte per valutare la personalità.

In questa immagine utilizzata per il famoso test di Rorschach un'intelligenza artificiale 'normale' vede 'un guanto da baseball in bianco e nero', mentre l'intelligenza artificiale psicopatica ribattezzata 'Norman' vede 'un uomo ucciso da una mitragliatrice'.

Le differenze tra le due interpretazioni sono risultate evidenti. La macchia con l'intelligenza 'normale' interpretava come "un gruppo di uccellini su un ramo" per Norman era "un uomo che subiva una scarica elettrica". Un "vaso di fiori" diventava "un uomo a cui hanno sparato a morte". Un "guanto da baseball" è stato interpretato come "un uomo ucciso da una mitragliatrice".

PROBLEMA SONO I DATI USATI PER CREARE LE AI. «Norman nasce dal fatto che i dati che vengono usati per addestrare un algoritmo influenzano significativamente il comportamento», hanno scritto gli ideatori sul sito dedicato a Norman, in cui peraltro è possibile 'aiutarlo' a correggere il tiro facendo il test di Rorschach e sottoponendogli le risposte. «Quindi quando le persone parlano di algoritmi 'razzisti' o 'scorretti' il problema non è nell'algoritmo in sé, ma nei dati usati».

In questa immagine utilizzata per il famoso test di Rorschach un'intelligenza artificiale 'normale' vede 'un uomo che tiene un ombrello in aria', mentre l'intelligenza artificiale psicopatica ribattezzata 'Norman' vede 'un uomo ucciso davanti alla moglie che urla'.

Il problema è già emerso diverse volte in passato. L'esempio più famoso è quello di Tay, l'intelligenza artificiale sviluppata da Microsoft sotto forma di utente di Twitter, che pochi giorni dopo il lancio è diventata razzista a causa dei commenti che leggeva. Uno studio su Science di circa un anno fa ha poi dimostrato che gli algoritmi incorporano gli stessi pregiudizi di chi li programma, e per esempio associano termini più negativi alle minoranze etniche o legati ai lavori domestici alle donne.

© RIPRODUZIONE RISERVATA
Correlati
Potresti esserti perso