Trolls Online
23 Febbraio Feb 2017 1339 23 febbraio 2017

Hate speech, Google lancia uno strumento contro gli insulti online

L'incubatore Jigsaw di Big G ha sviluppato l'intelligenza artificiale Perspective. Che impara a individuare automaticamente le frasi offensive sul web. Meglio di black list o moderatori umani.

  • ...

Google sta per passare al contrattacco sul fronte dell'hate speech. L'incubatore di 'Big G' Jigsaw ha sviluppato un sistema di 'machine learning' per cercare di combattere il linguaggio d'odio in Rete. Il 23 febbraio 2017 è stato rilasciato un altro pezzo di codice informatico denominato Perspective, una api, ovvero uno strumento concesso agli sviluppatori per integrare i propri lavori, come siti o programmi.

SISTEMA IN GRADO DI APPRENDERE. Quest'api si basa sul cosiddetto 'machine learning', ossia la capacità di un calcolatore di 'apprendere' senza essere costantemente riprogrammato. In pratica Perspective è in grado di imparare a individuare automaticamente insulti, offese abusi. Secondo Jigsaw il sistema è in grado di valutare la 'tossicità' di una frase meglio di una black list di parole chiave o di un moderatore umano.

La pagina di presentazione di Perspective.

L'idea dei suoi creatori è quella dare vita a una sorta di intelligenza artificiale comunicazionale in grado di disinfettare le discussioni online attraverso algoritmi. Perspective dà agli sviluppatori la possibilità non solo di identificare offese e abusi sui social media, ma anche un miglior filtraggio nei commenti online. Al momento resta ai gestori del sito il compito della rimozione che però avviene su un punteggio dato da Perspective.

AIUTO PER LE CONVERSAZIONI. «Ci auguriamo che questa nuova intelligenza artificiale per le conversazioni possa passare dall'essere "una cosa interessante" a un posto in cui tutti possono iniziare a interagire e sfruttare questi modelli per migliorare le discussioni», ha detto CJ Adams, product manager del progetto. Finora le alternative per eliminare i commenti erano la cancellazione in maniera manuale o meccanica oppure un sistema di voto dei commenti per premiare i migliori. «Il nostro metodo offre una nuova opzione: prendere un po' di intelligenza collettiva sulle motivazioni che hanno spinto a lasciare un commento tossico e usare quelle informazioni per aiutare la community a migliorare le discussioni».

ANALIZZATI MILIONI DI COMMENTI. Nella simulazione di prova l'intelligenza artificiale lascia scrivere ogni tipo di frase all'interno del sistema che automaticamente dà una valutazione di tossicità della frase. Google e Jigsaw hanno sviluppato la scala di misura attraverso milioni di commenti su Wikipedia e sul sito del New York Times (che sono partner dell'iniziativa); questi commenti sono stati poi sottoposti a dei panel di utenti che definivano la "tossicità" delle frasi.

UNA PERCENTUALE PER OGNI INSULTO. La mole di dati e valutazioni ha dato a Jigsaw un grosso set di esempi con i quali insegnare alla macchina il modello di apprendimento automatico. Se si scrive «non sei una bella persona» l'algoritmo segnerà un indice di somiglianza a frasi tossiche dell'8%. Se invece si scrive «sei un "bad hombre"» (parola usata molto spesso dal presidente degli Usa Donald Trump) il sistema indicherà una corrispondenza del 78%.

Il simulatore di frasi 'tossiche'.

Jigsaw ha confermato di aver attivato delle partnership con comunità online ed editori per implementare il sistema di valutazione. Oltre al New York Times anche il Guardian e l'Economist sono pronti a usare questo nuovo sistema per provare a migliorare la sezione dei commenti.

© RIPRODUZIONE RISERVATA

Correlati

Potresti esserti perso