Robot
22 Febbraio Feb 2017 1000 22 febbraio 2017

Ventitré regole e un pulsante (forse) ci salveranno dalla rivolta dei robot

Un gruppo di 700 ricercatori ha stilato (con l'ok di Hawking) le linee guida sul rapporto tra uomo e androidi. Che dovranno aderire a ideali etici condivisi. In caso di disobbedienza, la soluzione sarà drastica...

  • ...

Il dibattito su come proteggere la razza umana dalla supremazia degli androidi si è recentemente, e clamorosamente, riaperto. Le tre regole che Asimov definì nel 1942 - e che stabilivano, secondo un preciso ordine di priorità, che un robot non può danneggiare gli esseri umani; deve obbedire loro; deve proteggere la propria esistenza - sono state considerate «non più adeguate» da un gruppo di oltre 700 ricercatori ed esperti di intelligenza artificiale, riunitisi in un convegno in California lo scorso gennaio.

L'APPORTO DI HAWKING E MUSK. Il risultato della conferenza è una raccolta di 23 linee guida (definite Asilomar AI Principles), selezionate tra le decine di proposte su cui si è registrata la convergenza di almeno il 90% dei partecipanti. Anche lo scienziato Stephen Hawking e l’imprenditore Elon Musk, cofondatore di PayPal e Tesla Motors, da sempre molto attenti ai rischi derivanti dallo sviluppo incontrollato della artificial intelligence, hanno aderito con grande convinzione ai risultati della conferenza.

IL NODO DEGLI IDEALI CONDIVISI. La super-intelligenza non solo dovrà rispettare valori generali (dignità, diritti, libertà, diversità culturale, privacy, eccetera) ma anche garantire all’uomo di poter comprendere le cause di eventuali malfunzionamenti; ai progettisti è richiesto inoltre il dovere morale di una revisione degli algoritmi e precise responsabilità su un corretto utilizzo degli stessi. In estrema sintesi, la super-intelligenza dovrà essere sviluppata solo al servizio di ideali etici ampiamente condivisi e per il beneficio di tutta l'umanità, piuttosto che a vantaggio di una singola nazione o organizzazione.

Arnold Schwarzenegger in "Terminator".

Agli stessi ideali ha aderito anche Demis Hassabis, uno dei fondatori di DeepMind, la società acquisita da Google, ora laboratorio delle più innovative ricerche nel campo dell’intelligenza artificiale finanziate dal colosso di Mountain View.

IL BIG RED BUTTON DI DEEPMIND. La stessa DeepMind, nel giugno 2016, aveva risposto alle preoccupazioni di alcuni scienziati circa le minacce derivanti dagli sviluppi dell’intelligenza artificiale, annunciando la prossima disponibilità di un big red button, il cui funzionamento è spiegato all’interno del documento Safely Interruptible Agent. In pratica si tratta di un pulsante di spegnimento che, sotto la supervisione umana, consente di riprendere il controllo di un algoritmo fuori controllo o che rivela un comportamento anomalo, imprevisto o nocivo, come i robot immaginati nel film Terminator.

IL CONFRONTO È SOLO ALL'INIZIO. Come appare chiaro, nei prossimi anni, il confronto tra posizioni pro e contro lo sviluppo e l’impiego della intelligenza artificiale sarà vivo e animato. Nella discussione, però, sarà importante aver chiaro che bloccare completamente la ricerca tecnologica e lo sviluppo della super-intelligenza sarebbe un gravissimo errore per il genere umano.

© RIPRODUZIONE RISERVATA

Correlati

Potresti esserti perso