Gli haters hanno ormai le ore contate. A dichiarare guerra alla cultura dell’odio online è Google, che sfodera un’arma tanto potente, quanto incisiva: Perspective. Si tratta di una nuova intelligenza artificiale, che sfruttando il machine learning, è in grado di riconoscere e segnalare i commenti offensivi che compaiono negli articoli online. La nuova tecnologia è in via sperimentale e si schiera nella lotta contro la tossicità della rete al fianco degli editori.
Veterano in questa lotta è stato il New York Times, che oggi apre ai commenti solamente il 10% degli articoli che pubblica. Una vera inversione di rotta se si pensa che dieci anni fa la stessa testata giornalistica aveva dedicato proprio alla rete il premio di “personaggio dell’anno”.
Durante le fasi di sviluppo è stata testata proprio dal New York, che deve oggi filtrare bel oltre 11.000 commenti prima di ogni pubblicazione, dall’Economist e dal The Guardian.
Perspective rappresenta una necessità 2.0, supportata da dati quantitativi: secondo Data&Society sono il 72% gli americani che nel 2016 sono stati testimoni di questo fenomeno; la metà di questi ne è stata vittima e per paura delle reazioni non ha reagito alle provocazioni. Anche in Italia si percepisce una preoccupazione crescente, come ha sottolineato l’appello di Laura Boldrini a Zuckerberg per denunciare la presenza fissa dell’odio su Facebook.
Al momento Perspective conosce solo la lingua inglese: stupid per esempio, viene considerata tossica al 95%, bad person al 54%.
Ma come può un software valutare la malafede delle nostre parole?
In tal senso rimane fondamentale la partecipazione della community. Questo cervello artificiale apprende proprio da noi utenti quali debbano e non debbano essere le parole che mettono a rischio la coscienza virtuale. La tecnologia studiata analizza i commenti in tempo reale, assegnando un punteggio in base al feedback negativo creato dagli utenti stessi. Questo costante apprendimento permetterà a Perspective di aggiornarsi automaticamente, trasferendo poi l’informazione ai gestori del portale e rendendo così possibile effettuare la censura della parola anche nel momento esatto in cui la si sta scrivendo.
L’hate speech è divenuto ormai una semenza rigogliosa in qualsiasi ambiente web: Twitter ha già ostacolato la presenza di troll, rendendo impossibile la creazione di un nuovo profilo a utenti già sospesi; Facebook ha da poco avviato una policy di condanna alle minacce.
Secondo una ricerca redatta Vox insieme all’università La Sapienza di Roma, i principali bersagli dell’odio via web sono le donne (63%), gli omossessuali (10,8%), i migranti (10%) e i disabili (2,2%).
In futuro l’idea è quella di offrire modelli che funzionino anche in altre lingue, insieme all’ampliamento e al miglioramento delle funzionalità del software. Il programma potrà essere capace di distinguere i commenti con attacchi personali, da quelli fuori contesto senza alcun tipo di offesa. La lotta all’odio 2.0 sarà caratterizzata da varie guerre e questa prima parte della storia avrà come meta obiettivo sicuramente quello di spodestare i “leoni da tastiera”, sacrificati per ribadire, a coloro che ancora e inspiegabilmente non l’hanno accettato, che non esiste più confine tra realtà virtuale e reale.
Alessandro Ledda