Ai
8 Luglio Lug 2017 1200 08 luglio 2017

Intelligenza artificiale: limiti, rischi e sfide future

Stiamo creando meccanismi in grado di ragionare? No. Stiamo solo meccanizzando molti compiti, e li affidiamo agli algoritmi. Etica dei dati, responsabilità giuridica, resilienza dei sistemi: ecco le questioni da affrontare. L'articolo di Pagina99. 

  • Michele Bellone
  • ...

Il primo pensiero va subito alle macchine senza pilota, agli assistenti vocali come Cortana o Siri. Ma di intelligenze artificiali nella nostra quotidianità ce ne sono molte più di quanto immaginiamo. Ci suggeriscono libri e musica in base ai nostri acquisti e alle nostre ricerche online. Individuano frodi bancarie. Fanno diagnosi mediche. Rendono avvincenti i nostri videogiochi. L’avanguardia del settore è rappresentata dalle reti neurali artificiali, complessi modelli matematici che simulano la capacità del cervello di imparare nuovi compiti in base agli stimoli che riceve e alle connessioni che si formano fra i suoi neuroni. Queste reti sono in grado di sviluppare una propria serie di regole per analizzare le informazioni che ricevono. In pratica, si riprogrammano per svolgere il compito per cui sono state addestrate.


RETI DIFFICILI DA COMPRENDERE. Ciò le rende estremamente efficaci, ma solleva anche diversi timori sul loro utilizzo. «Nessuno sa veramente come fanno quello che fanno», scriveva ad aprile Will Knight, giornalista esperto di intelligenze artificiali, sul Mit Technology Review. Le più avanzate sono, secondo Knight, così complesse che anche gli ingegneri che le hanno progettate faticano a ricostruire le motivazioni di ogni loro singola decisione. Il che può essere un problema nel momento in cui bisogna capire perché, per esempio, un veicolo senza pilota è uscito di strada. O perché un software di riconoscimento immagini di Google ha etichettato una coppia di colore come gorilla.

COME UNA SCATOLA NERA. È il problema del modello black box, cioè di un sistema che può essere descritto solo sulla base delle risposte che dà a determinati stimoli, senza che sia chiaro come quella risposta sia stata elaborata. Ma è proprio così? Davvero non sappiamo come funzionano le intelligenze artificiali di cui ci stiamo circondando? «Le macchine, o meglio, gli algoritmi, fanno le stesse cose che facciamo noi: osservano, cercano regolarità ed elaborano un modello per prevedere un comportamento», spiega a Pagina99 Francesco Vaccarino, professore aggregato di Matematica al Politecnico di Torino e ricercatore alla Fondazione Isi. «Il modo in cui questi modelli vengono ottenuti ci è chiaro, perché siamo noi ad aver sviluppato l’algoritmo con quello scopo. Ciò che non sappiamo è come sia fatto questo modello. Ma dopotutto questo vale anche per il nostro cervello, del quale conosciamo ancora molto poco».

Quando guardiamo un’immagine, noi riconosciamo una serie di tratti salienti per identificarla. Un’intelligenza artificiale invece analizza l’immagine punto per punto, sfruttando la sua enorme capacità di elaborazione e costruendo un’equazione che ha moltissimi parametri. «Non c’è niente di misterioso in un simile processo. È semplicemente un modo molto diverso, se non addirittura alieno, rispetto al nostro», continua Vaccarino. «Il problema è che spesso abbiamo difficoltà a comprendere la complessità», aggiunge Luciano Floridi, professore di Ffilosofia dell’informazione all’Università di Oxford, che in passato ha lavorato con l’Unesco e ora collabora come consulente con Google e Microsoft. «Una rete neurale artificiale è un sistema complesso composto da molte variabili. Un cambiamento anche piccolo di una di esse può avere ripercussioni su tutto il sistema che possono essere difficili da prevedere. Ma questo non vuol dire che non ne sappiamo nulla».

IMPREVEDIBILE NON SIGNIFICA INCOMPRENSIBILE. Il traffico in una grande città è un ottimo esempio di sistema complesso, poiché è costituito da una grande rete di elementi le cui dinamiche sono influenzate da moltissimi fattori: fretta o distrazione dei conducenti, spostamenti dei pedoni, lavori in corso. Possiamo prevedere dove è più probabile che si formino ingorghi ma non certo dove e quando avverrà un incidente, o spiegare con precisione perché si è formata una coda. Questo non significa che il traffico sia un evento misterioso, inspiegabile. «Imprevedibile non è sinonimo di incomprensibile», continua Floridi. «Non è vero che non sappiamo come funzionano le intelligenze artificiali, le abbiamo costruite noi. Ci sono cose che lasciamo inspiegate perché ci interessa più il controllo della spiegazione».

ROBOT MA POCO SMART. Già, il controllo. Uno dei più grandi timori, diventato ormai un classico della fantascienza, è quello dell’intelligenza artificiale che sorpassa quella umana e prende il sopravvento. «Dovremmo smetterla di chiamarle intelligenze artificiali», afferma Vaccarino. «Sono algoritmi programmati per fare una cosa: apprendere. Simulano i nostri processi di apprendimento ma questo non li rende intelligenti. Anche perché la nostra intelligenza è cablata nella nostra carne, è inscindibile da essa. Le reti neurali, di contro, non hanno un corpo fisico apposito. Sono software che possono esistere su qualsiasi computer abbastanza potente da farle girare».

Dovremmo smetterla di chiamarle intelligenze artificiali. Sono algoritmi programmati per apprendere. Simulano i nostri processi di apprendimento ma questo non li rende intelligenti

Francesco Vaccarino

Floridi è della stessa opinione. «Abbiamo scoperto che ci sono diverse attività che possono venir svolte meccanicamente, senza bisogno di intelligenza, e le abbiamo affidate a queste macchine. Che sono come carta assorbente, assimilano le informazioni a disposizione e si adattano al contesto». Quelle che noi chiamiamo intelligenze artificiali sono in realtà macchine che eliminano la componente intelligente da una serie di attività, sostituendola con complessi processi automatici. «La narrativa dominante sostiene che abbiamo trovato un modo per creare meccanismi intelligenti. Mentre in realtà stiamo eliminando l’intelligenza da molti compiti, che quindi possiamo far fare a un algoritmo», conclude Floridi. «Al momento non esiste una macchina che possa essere considerata intelligente». Gli scenari apocalittici di Terminator o Matrix sono quindi un’esagerazione, ma ciò non significa che non ci siano problemi relativi all’uso di queste tecnologie.

I RISCHI DELL'AUTOMAZIONE. «Come sono stati raccolti i dati che usiamo per istruire le reti neurali? Come sono strutturati?», si chiede Vaccarino. «Per esempio, se un set di dati dice che i maschi guadagnano più delle femmine, questo non significa che sia giusto così. Ma un algoritmo istruito con simili dati costruirà il suo modello sulla base di queste differenze e produrrà nuovi dati che andranno a rinforzare queste disuguaglianze». Una possibile soluzione è la cosiddetta algorithmic accountability, cioè il trasferire la responsabilità del problema su chi sviluppa l’algoritmo. Sarà quindi il produttore di una macchina senza pilota a dover dimostrare che il veicolo si ferma davanti a qualsiasi pedone e non fa discriminazioni a causa di un addestramento con dati mal strutturati. Si tratta di un concetto chiave, ribadito nel General Data Protection Regulation (Gdpr), il regolamento sulla protezione dei dati personali approvato dalla Commissione europea nell’aprile del 2016. Che, fra le altre cose, sancisce il diritto dei cittadini di contestare decisioni che li riguardano e che siano state prese su basi esclusivamente algoritmiche.

LA SFIDA DELLA RESILIENZA. «Viviamo in un mondo che si sta rivelando sempre più complesso e per gestirlo ci stiamo affidando a sistemi che, inevitabilmente, sono anch’essi complessi», conclude Floridi. «Sistemi che girano su supporti digitali, che hanno una fragilità intrinseca. E noi stiamo lavorando poco sulla loro resilienza, cioè sulla loro capacità di adattarsi e resistere ai guasti, che si tratti di errori locali, attacchi informatici o disastri naturali». Etica dei dati, responsabilità giuridica, resilienza dei sistemi. Queste sono alcune delle sfide che dobbiamo affrontare, con la consapevolezza di star vivendo una fase di cambiamento cruciale, con un impatto sulla società paragonabile a quello della rivoluzione industriale. Un cambiamento che apre importanti interrogativi e che avrà conseguenze sociali molto forti. Meglio quindi farsi trovare preparati, concentrandosi sulle questioni concrete e mettendo da parte le paure apocalittiche.

Questo articolo è tratto dal nuovo numero di pagina99, "genitori che odiano lo Stato", in edicola, digitale e abbonamento dal 7 al 13 luglio.

Jobs Act, abolizione dell'Imu, salvataggi bancari, no a Flixbus e Uber, aiuti per i pensionati: il Pd non fa gli interessi dei giovani. Ecco perché perde i loro voti. Il nuovo numero di Pagina99 ► bit.ly/P99n75

Geplaatst door Pagina99 op donderdag 6 juli 2017
© RIPRODUZIONE RISERVATA

Correlati