Kenya 151008191439
INNOVAZIONE 17 Ottobre Ott 2015 1800 17 ottobre 2015

Umati, l'algoritmo che prevede e previene i genocidi

Monitora la violenza in Rete. Leggendo post, tweet e blog. E spiega come reagire. Un programma keniota spegne i focolai sul web. Prima che diventino reali.

  • ...

Un corteo durante le elezioni politiche del 2007 in Kenya.

Nel 2007 la campagna elettorale in Kenya fu molto agitata, con punte di violenza verbale molto alte.
Qualcuno addirittura chiese il linciaggio degli avversari politici in diretta radiofonica.
Nel post elezioni, negli scontri tra le varie fazioni, furono uccise più di 1.200 persone e centinaia di migliaia furono costrette ad abbandonare le loro case.
STUDIO SULL'ODIO IN RETE. Dopo questi fatti il centro di ricerca iHub di Nairobi, con il supporto del governo, decise di concentrarsi sullo studio dei discorsi d’odio in Rete, per cercare di prevenire ulteriori esplosioni di violenza.
Il risultato è stato Umati (“folla” in swahili, la lingua dell'Africa Orientale), un algoritmo che scandaglia il web, individua le incitazioni all’odio e stabilisce qual è il rischio che diano il via a scontri etnici o addirittura a un genocidio.
PROGRAMMA PRONTO NEL 2016. Il programma, il cui rilascio è previsto per i primi mesi del 2016, sarà subito testato nello spazio web di Nigeria e Sud Sudan, oltre a essere usato nello stesso Kenya per cercare di prevenire violenze tra gruppi etnici e religiosi.

Caccia ai “dangerous speech”: insulti contro i gruppi di persone

Umati è l'algoritmo che prevede e previene i genocidi.

I ricercatori hanno classificato come “dangerous speech” - discorsi pericolosi - tutti i post, i tweet e gli articoli che si scagliano non contro un singolo individuo, ma contro un gruppo di persone e invitano a insultare, discriminare, picchiare, deportare o uccidere i nemici.
PARAGONATI AD ANIMALI. Tipicamente, nel messaggio si paragonano i membri del gruppo preso di mira ad animali o insetti e li sia accusa di voler nuocere ai membri della propria fazione o di stare “inquinando” la loro purezza.
La pericolosità del messaggio è valutata in base a diversi fattori, tra cui l’importanza e l’influenza dell’autore, il livello di istruzione e la fragilità economica del pubblico a cui si rivolge, il contesto storico e sociale generale.
L'ONLINE, FINESTRA SUL REALE. «Le conversazioni online possono essere viste come una finestra su quello che succede offline. Una finestra che offre la possibilità di capire quali sono le tematiche su cui è il caso di intervenire in modo tempestivo», spiegano i membri del gruppo di lavoro.
POST MONITORATI PER 9 MESI. Dopo aver monitorato di persona per nove mesi post pubblici di Facebook e Twitter, blog, giornali e forum locali, in inglese, in swahili e nei molti dialetti locali, il team ha inserito i risultati in un programma in grado di riconoscere il linguaggio naturale.
In questo modo è possibile monitorare, quasi in tempo reale e con un procedimento in gran parte automatizzato, tutti i possibili “focolai d’odio” in Rete.

La censura? Un'arma a doppio taglio

Umati è un algoritmo realizzato dal centro di ricerca iHub di Nairobi.

Una volta individuato il pericolo, secondo il gruppo di Umati, la prima contromisura d’urgenza da prendere è quella di neutralizzare i profili che spargono benzina sul fuoco (nel 2013 il Kenya ha annunciato l’oscuramento di tutti i blog colpevoli di incitare alla violenza).
VISSUTA COME UN SOPRUSO. Un’arma a doppio taglio: non solo la conversazione può spostarsi su media non monitorabili, ma la censura viene vista come un sopruso da chi ne è colpito, che può anche riuscire a utilizzarla a proprio vantaggio.
E può inoltre diventare in alcuni casi in un effettivo pericolo per la democrazia, trasformandosi in un bavaglio per gli oppositori.
MEGLIO PUNTARE SULL'EDUCAZIONE. Una strada più efficace, soprattutto sul lungo periodo, è quella di insegnare alla gente a isolare spontaneamente gli utenti più aggressivi: per prevenire altri problemi - sostengono i ricercatori - bisogna puntare sull’educazione, spiegando al pubblico come riconoscere subito gli hate speech e come riportare la conversazione a un livello civile.

Una contromisura efficace: biasimare o irridere i troll

Umati monitora post pubblici di Facebook e Twitter, blog, giornali e forum locali.

In modo sorprendente, “nutrire i troll” biasimando o irridendo chi sparge odio funziona.
E funziona addirittura più della decisione di limitarsi a ignorare gli utenti molesti: il 90% dei commenti razzisti monitorati da Umati è comparso su Facebook, mentre solo il 3% proveniva da Twitter.
VINCE LA MASSA MODERATA. Una circostanza che i ricercatori collegano al fenomeno del “cuffing”, “l’ammanettamento”: essendo Twitter un social molto aperto, i commentatori più estremi vengono spesso ostracizzati e messi in ridicolo dalla massa più moderata.
In diversi casi, gli autori dei tweet violenti, travolti dalle critiche, sono addirittura tornati sui loro passi, scusandosi e cancellando i post incriminati.
AUTO-REGOLAMENTAZIONE. «Attraverso Umati abbiamo osservato come gli utenti della Rete si rapportano con i discorsi incendiari, arrivando a una sorta di auto-regolazione dello spazio online», spiegano i ricercatori.
Il fantomatico 'popolo del web' pensa, eccome. E in alcuni casi può evitare il peggio.

Articoli Correlati

Potresti esserti perso