Robo 160330110541
SPIN DOCTOR 30 Marzo Mar 2016 1047 30 marzo 2016

Altro che bot, a Microsoft serve un buon manager

Il caso di Tay rivela falle nella pianificazione. L'intelligenza artificiale? Un terreno scivoloso.

  • ...

Anche l’intelligenza artificiale rischia di rivelare le debolezze e gli scivoloni di ogni essere umano.
La notizia di Tay, il bot ideato da Microsoft e lanciato su Twitter il 23 marzo, ha dominato le scene di molti quotidiani nazionali e internazionali, purtroppo non in positivo.
Il bot non è altro che un account “addestrato” a rispondere in modo automatico alle domande che gli vengono poste.
LO SCIVOLONE DI TAY. Nelle intenzioni originarie del team del colosso statunitense, Tay avrebbe dovuto comportarsi come una normale ragazza di 19 anni, pronta a dialogare con i propri coetanei che navigano ogni giorno sul web.
L’esperimento, affascinante e interessantissimo, si è rivelato però un sonoro fiasco. Tay non si è infatti comportata come una 19enne pronta a commentare le serie tivù preferita o i progetti per il futuro. Il web ha assistito attonito, in un misto di stupore e inquietudine, alla sua trasformazione in un essere virtuale razzista, antisemita e inneggiante a Hitler.
Il progetto, che era stato sviluppato in collaborazione con i ricercatori di Bing (il motore di ricerca di Microsoft), si è rivelato un clamoroso buco nell’acqua.
IL CASO OPPOSTO DI ALPHAGO. È incredibile constatare come il caso Tay sia scoppiato subito dopo una clamorosa vittoria dell’intelligenza artificiale sulla mente umana.
Il quotidiano torinese La Stampa ha dedicato qualche settimana fa un bell’articolo al trionfo di AlphaGo (un super computer sviluppato da DeepMind, una startup acquisita da Google) contro il campione coreano Lee See-dol.
A differenza delle celebri sfide del passato, non si è trattato di una convenzionale partita di scacchi, ma di un match storico su una “goban”, la scacchiera di un gioco nato oltre due millenni fa in Cina.
Il “Go” richiede agli avversari uno sforzo di elaborazione strategica che era stato fino a quel momento giudicato irraggiungibile per una mente non umana. AlphaGo ha ribaltato i pronostici conquistandosi un posto nella storia della tecnologia a colpi di pedine.

Il profilo Twitter di Tay.

L'interazione tra umani non è un gioco

Il flop clamoroso di Tay dimostra evidentemente che la comunicazione e l’interazione degli umani sono molto più complesse e rischiose di un gioco da tavola.
Ma che cosa è andato storto?
La vicenda è stata raccontata con dovizia di particolari da tutti i media internazionali.
MICROSOFT SPEGNE IL BOT. Tay, sollecitata da utenti sconosciuti (che Microsoft non ha esitato a definire troll), ha iniziato a perdere la bussola lanciandosi in dichiarazioni dal contenuto dubbio.
La conversazione avrebbe dovuto essere casuale e giocosa, ha lamentato Microsoft. Dopo migliaia di interazioni perfettamente normali (e con il tono di una ragazzina) Tay ha fornito una risposta inaspettata a una domanda su un attore britannico, citando Hitler.
Il passo falso ha dato il via a una serie di tweet razzisti e irripetibili. Microsoft è dovuta correre ai ripari “spegnendo” Tay e ponendo fine in modo inglorioso all’esperimento.
La vicenda, al netto delle varie spiegazioni tecniche sui motivi per cui il bot ha assorbito in modo così repentino contenuti negativi, ha scatenato molteplici interpretazioni.
SIAMO ANCORA MEGLIO DELLE MACCHINE. Essendo stata programmata per imparare dalle interazioni e scandagliare il web in cerca di informazioni, l’ignara Tay ha restituito al mondo ciò che chiunque di noi troverebbe nel mare magnum della Rete.
Paul Mason, scrivendo sulle colonne del Guardian, ha concluso sbrigativamente che il flop di Microsoft dimostra il lato tossico e pericoloso dei social media, collettori di teorie complottistiche e false informazioni.
Il Financial Times si è limitato a constatare che Microsoft ha sottovalutato la pericolosità dell’esperimento. Lanciare un bot nel web dotandolo di una sorta di “personalità” (e di un buon motore di ricerca) ha semplicemente rivelato che gli esseri umani, per ora, sono ancora meglio delle macchine.
L'IMPORTANZA DELLA PIANIFICAZIONE. L’aspetto più affascinante dell’intera vicenda, al di là delle valutazioni sul futuro delle macchine, è il modo in cui Microsoft ha gestito il caso Tay.
Il magazine Wired ha messo in fila gli errori di pianificazione commessi e si è chiesto come sia stato possibile sottovalutare i potenziali rischi. A nessuno è venuto in mente che Tay avrebbe potuto lasciarsi scappare frasi inopportune?
La gestione della crisi passa soprattutto dalla corretta valutazione delle situazioni imprevedibili che le nostre aziende possono affrontare e alla predisposizione di un piano efficace. In questo caso, non serve un’intelligenza artificiale, basta un buon manager.
Un tema su cui ho riflettuto anche nel mio ultimo libro, L’impresa oltre la crisi, pubblicato da Marsilio, che uscirà il 31 marzo nelle librerie.

* Professore di Strategie di Comunicazione, Luiss, Roma

Twitter @gcomin

Articoli Correlati

Potresti esserti perso