TRUMP
4 Agosto Ago 2017 1618 04 agosto 2017

Intelligenza artificiale, gli effetti collaterali del riconoscimento vocale

Una startup canadese ha studiato un software in grado di clonare le voci umane. Ma le conseguenze potrebbero essere tutt'altro che rassicuranti. E di qui a poco sarà possibile costruire fake video. Altro che fake news.

  • ...

«L’ho sentito dire con le mie orecchie» è un’espressione comunemente usata per affermare la veridicità di una dichiarazione fatta da qualcuno. Espressione che, molto presto, potrebbe però perdere di valore. Mentre si parla moltissimo di fake news e della possibilità che l’intelligenza artificiale possa contrastare efficacemente il dilagare di questo fenomeno, al contrario, la capacità dell’intelligenza artificiale di generare falsa informazione è pericolosamente ignorata.

CAMPIONI DI SINTESI VOCALE. Lyrebird è una startup fondata nell’aprile 2017 da tre giovani canadesi, studenti PH della Mila University di Montreal. Attualmente, secondo quanto è riportato sul sito web della società, il team è composto da 7 (sette !!!) persone. Un piccolo ma preparatissimo gruppo capace di sviluppare un’innovativa applicazione di intelligenza artificiale per la sintesi vocale, cioè una tecnica per riprodurre artificialmente la voce umana. Per capirci, è la stessa tecnologia che viene impiegata nelle stazioni per annunciare i treni in partenza o che il nostro navigatore satellitare usa per indirizzarci nella giusta direzione.

DIALOGHI CLONATI. A dispetto delle tecnologie tradizionali che fondano il proprio funzionamento su un gruppo di voci pre-campionate, al software di Lyrebird è sufficiente un minuto di registrazione della voce di una qualsiasi persona per clonarla. Una volta perfezionata, questa tecnologia sarà in grado di generare interi dialoghi utilizzando la voce clonata, anche modulando l’intonazione in base al contesto.

Mentre si parla moltissimo di come l'intelligenza artificiale possa contrastare le fake news, si ignora la sua capacità di generare false informazioni

Oltre all’idea che un libro possa essere letto dalla voce (clonata) di Donald Trump (o, se preferite, di Hillary Clinton), questa innovazione tecnologica stimola in chi scrive molte altre riflessioni. In estrema sintesi, mi limito a citarne tre.

1. FALLIBILITÀ COMPROVATA. La prima. Alcuni sistemi biometrici usano il riconoscimento vocale per verificare l’identità di una persona. Le banche, per esempio, fanno già uso di strumenti che, a scopo identificativo, chiedono ai clienti di pronunciare alcune frasi prima di consentire l’accesso ai propri servizi. Queste tecnologie di riconoscimento biometrico sono tutt’altro che infallibili, come ha dimostrato recentemente il gemello di un cliente che ha mimato la voce del fratello ottenendo rapidamente l’accesso al suo conto corrente.

2. USO CRIMINALE. Secondo, cosa potrebbe accadere se la voce (clonata) del sig. Rossi fosse volutamente utilizzata dal sig. Bianchi per sviare delle indagini di polizia? Magari consentendo a Bianchi di usare la voce dell’ignaro Rossi in comunicazioni telefoniche in cui dialoga di fatti criminali con i propri complici?

3. DALLA FAKE NEWS AL FAKE VIDEO. Terza e ultima ragione. Credo, senza dover pazientare troppo, che avremo presto a disposizione software di intelligenza artificiale in grado di ricostruire perfettamente volti, espressioni facciali e movimenti delle labbra, semplicemente utilizzando spezzoni di video e/o foto di una determinata persona. Sarà quindi gioco facile combinare questa ultima tecnologia di intelligenza artificiale con quella di Lyrebird e costruire un fake video in cui sarà impossibile distinguere il Rossi reale da quello clonato. Altro che fake news…A quel punto, potremo comunque consolarci decidendo di farci recitare il nostro libro preferito da Donald Trump o da Hillary Clinton.

© RIPRODUZIONE RISERVATA

Correlati

Potresti esserti perso