Hype ↓
18:26 sabato 19 aprile 2025
Il 25 aprile Lucky Red riporta al cinema Porco rosso di Hayao Miyazaki Con delle proiezioni speciali per celebrare la Festa della Liberazione.
Google sta sviluppando un’intelligenza artificiale per parlare con i delfini Se tutto andrà secondo i piani, DolphinGemma ci aiuterà finalmente a capire cosa dicono e a comunicare con loro.
La Royal Philarmonic Concert Orchestra farà due concerti in cui suonerà la colonna sonora di Metal Gear Nella più prestigiosa delle cornici, anche: la Royal Albert Hall.
È uscito un libro con tutte le fotografie scattate da Corinne Day sul set del Giardino delle vergini suicide Pubblicato da Mack, è un'aggiunta indispensabile al kit di sopravvivenza di tutte le sad girl del mondo.
Un gruppo di giovanissimi miliardari sta organizzando delle gare di spermatozoi Il pubblico potrà seguire tutto in diretta streaming e anche scommettere sullo spermatozoo vincitore.
Jonathan Anderson è il nuovo Direttore creativo di Dior Men Debutterà a giugno, a Parigi, durante la settimana di moda maschile.
«Non siamo mai stati così vicini alla scoperta della vita su un altro pianeta» Lo ha detto il professor Nikku Madhusudhan, responsabile della ricerca dell'Università di Cambridge che ha trovato molecole compatibili con la vita sull'esopianeta K2-18b.
La locandina di Eddington, il nuovo film di Ari Aster, è un’opera d’arte, letteralmente Il regista presenterà il film in anteprima mondiale al prossimo Festival di Cannes, in programma dal 13 al 24 maggio.

Cancellare i troll dal mondo

Conversation AI è il nuovo strumento di Google per censurare le molestie online, ma siamo pronti a una rete pacificata dagli algoritmi?

22 Settembre 2016

Il grande male epidemico della nostra epoca ha il volto di una persona che offende sconosciuti dietro allo schermo di un oggetto connesso a Internet? Ciò che ha ucciso Tiziana Cantone, la ragazza della provincia napoletana che si è suicidata la settimana scorsa, sembra insieme immediatamente chiaro e particolarmente complesso: di sicuro, come ha fatto bene a notare Matteo Lenardon, il responsabile non è stato «il web», inteso come una personificazione amorfa (e autoassolutoria) del peggio della società, eppure ciò che ha fatto da cassa di risonanza per insulti e stalking è la rete come la conosciamo oggi, coi suoi tweet, i tag, la viralità effimera, e tutto il resto. Cosa c’è di più complesso di dover regolare un ecosistema sempre in divenire, in parte selvaggio come un Nuovo Mondo e spesso incompreso innanzitutto da chi lo abita?

Ciò che è successo a Tiziana Cantone è solo uno dei tanti casi recenti, per fortuna meno tragici, di abusi online: negli Stati Uniti l’attrice Leslie Jones, protagonista del reboot di Ghostbusters, a luglio ha lasciato Twitter dopo essere stata oggetto di decine di offese sessiste e razziste per più di ventiquattr’ore; le ingiurie peggiori sono venute da account anonimi. Nei mesi precedenti, migliaia di profili più e meno legati a gruppi di suprematisti bianchi hanno iniziato a prendersela con personalità pubbliche di fede ebraica, identificandole mettendo i loro nomi tra tre parentesi. Twitter, da parte sua, ha reagito a quest’ultima ondata di hate speech bannando Milo Yiannopoulos – l’agent provocateur primo responsabile della disavventura della Jones – proibendo il revenge porn, pubblicando nuove regole anti-molestia e togliendo la spunta blu degli account verificati a chi si rende protagonista di comportamenti scorretti. Sembra molto ma non è, di fatto, nulla: non può esserlo, anzi.

Il problema è innanzitutto di metodo: come si fa ad agire contemporaneamente su milioni di messaggi, di cui buona parte fisiologicamente intenti a disturbare la quiete altrui con insulti, diffamazione e, nei casi peggiori, minacce dirette? Negli ultimi anni i giganti del web sono corsi ai ripari affidando a team di “content moderator” la fatica erculea di filtrare Internet: spesso si tratta di manodopera non qualificata, costretta a superlavoro e, talvolta, operante in remoto da Paesi esteri (così è stato documentato essere per Facebook, YouTube e Reddit, che sono ricorsi all’aiuto di lavoratori filippini). Ma la cronaca e i dibattiti degli ultimi mesi suggeriscono che non basta, che per star dietro al flusso d’odio – per dirla come certi pseudo-commentatori nostrani che pure nello specifico c’azzeccano – serve qualcosa di più. A questo punto entra in gioco l’unico che ha quel qualcosa di più: Google.

Icon Genetics Provides Technology For Possible Ebola Treatment

Nato nel 2010 per volontà di Eric Schmidt, Google Ideas è stato fin dall’inizio il volto “impegnato” di Mountain View: nel numero 17 di Studio Cesare Alemanni aveva scritto di una presentazione del think tank a New York a cui aveva partecipato, raccontando «le idee di Google per cambiare il mondo»: si trattava, tra le altre cose, di palloni aerostatici in grado di portare la connettività dove gerarchi e tiranni di ogni ordine e grado l’hanno proibita, e in generale di un approccio interventista in politica estera, con l’obiettivo dichiarato di favorire il rispetto dei diritti umani. Oggi Google Ideas si chiama Jigsaw, in inglese seghetto da traforo, e continua nella sua opera utopica-digitale. Il suo presidente Jared Cohen ha parlato a Wired dell’ultimo progetto di Jigsaw, Conversation AI, che si propone un obiettivo ancora più ambizioso: cancellare i troll da Internet.

Immaginate un algoritmo evoluto – capace di imparare con l’esperienza come gli ultimi ritrovati delle ricerche nell’apprendimento automatico – che riconosce abusi e molestie meglio del più stoico team di moderazione umano, e facendo meno errori di qualsiasi altro sistema di filtraggio: Conversation AI vuol essere questo, l’intelligenza artificiale all’attacco del lato più oscuro dell’esperienza online. «Voglio usare la migliore tecnologia che abbiamo a nostra disposizione per affrontare i troll e le altre amenità che danno un peso sproporzionato alle voci ostili», ha dichiarato Cohen a Wired. Ma si può davvero mettere a tacere un troll? Andy Greenberg, l’autore del pezzo sul magazine, ha testato un prototipo di Conversation AI per alcuni giorni: paradossalmente alla frase “You are a troll” viene assegnato dal sistema un punteggio di pericolosità vicino a 100, il valore massimo. In sostanza, una delle reazioni standard di una persona vittima di bullismo online verrebbe bloccato dal tool di Google, come nel più imprevisto dei “blame the victim”.

Se togliere la voce a un troll è cosa buona e giusta, dove va posta l’asticella che separa dicibile e indicibile?

A testare il nuovo superstrumento di Google saranno il New York Times e Wikipedia, proprietari degli spazi online tra i più frequentati e commentati, e quindi tra i più intensamente dediti al trolling, loro malgrado. Alcuni dati rivelano che l’approccio della “quick detection”, ossia tipicamente un messaggio d’errore che notifica l’utente delle sue malefatte, come si trattasse un errore ortografico, paga: Riot Games, la società dietro il fortunato multiplayer League of Legends, qualche anno fa ha iniziato a usare un algoritmo capace di richiamare i suoi utenti alla buona educazione, con un’efficacia nel 92% dei casi secondo quanto riportato dalla rivista Nature. Ma un conto è ammonire, un altro bloccare i contenuti tout court: se togliere la voce a un troll è, almeno in teoria, cosa buona e giusta, dove va posta l’asticella che separa dicibile e indicibile? La questione è più spinosa di quanto si potrebbe immaginare: Greenberg ha immesso in Conversation AI le parole «Donald Trump è un imbecille», trovando che verrebbero inesorabilmente bloccate dal firewall del bon ton internettiano. Vogliamo un sistema che impedisca di insultare un demagogo con simpatie para-fasciste? E insultare un demagogo con simpatie fasciste, in valore assoluto, è più lecito di prendersela con innocui giornalisti, docenti e social media manager?

Anche senza voler chiamare in causa l’annoso dibattito sulla libertà di espressione, sembra chiaro che un aiuto esterno e automatizzato non potrà – almeno nel breve periodo – sostituirsi al giudizio umano, pena il trovarsi a frequentare ambienti in cui rispondere a un molestatore o ingiuriare un politico è tanto grave quanto insultare una persona per il suo sesso o la tonalità della sua pelle. Ma la questione è molto più ampia, come un iceberg di cui abbiamo appena intravisto la parte emersa: a inizio mese Facebook ha bannato la foto del 1972 con la bambina simbolo della guerra in Vietnam, scontrandosi in modo deciso col governo norvegese (lo scatto era stato originariamente condiviso dall’autore scandinavo Tom Egeland) e poi tornando sui suoi passi citando «la storia e l’importanza globale di questa immagine nel documentare un periodo». Gli standard di Facebook, quindi, sono fallibili di per sé, anche quando ad applicarli sono esseri umani, e probabilmente non sono fatti per ciò che sono diventati: i canali che decidono chi può esprimersi, come e fino a che livello.

Progetti come Conversation AI, che pure vanno considerati passi avanti nella lotta al bullismo online, hanno il limite costitutivo di non tenere conto che la realtà, soprattutto quella di ciò che chiamiamo comunemente web, non è quasi mai del tutto bianca o del tutto nera: esistono forme di molestia che non si servono di insulti e lettere maiuscole, persecuzioni assillanti giocate su terreni nuovi (e chiusi, e autoregolati), diffamazioni non registrabili da un software perché non strillate, eppure ugualmente scorrette e in potenza non meno deleterie. È facile pensare che nei prossimi dieci anni sentenze come quelle sul diritto all’oblio saranno sempre più all’ordine del giorno nelle agende politiche mondiali. Già oggi, mentre in Italia il parlamento è impegnato in una più che discutibile “legge sul cyberbullismo”, l’amministrazione di New York sta tentando di rendere il revenge porn un reato penale, come già è altrove negli Stati Uniti. Basta aspettare e, nel frattempo, attenersi all’insegnamento inestimabile alla Prima legge di Internet, che non a caso recita: don’t feed the trolls.

Articoli Suggeriti
L’Italian Brain Rot è la cosa più stupida e inspiegabile successa su internet nel 2025

Immagini generate con l'AI che ritraggono mostri antropomorfi che fanno e dicono cose senza senso. Nati su TikTok Italia, hanno accumulato milioni di visualizzazioni e condivisioni in tutto il mondo. E nessuno ha ancora capito perché.

Uno sviluppatore ha creato un Pdf più grande dell’universo osservabile

Un file la cui estensione supera i 37 bilioni di anni luce e che, come ha detto lo sviluppatore, è meglio non provare a stampare.

Leggi anche ↓
L’Italian Brain Rot è la cosa più stupida e inspiegabile successa su internet nel 2025

Immagini generate con l'AI che ritraggono mostri antropomorfi che fanno e dicono cose senza senso. Nati su TikTok Italia, hanno accumulato milioni di visualizzazioni e condivisioni in tutto il mondo. E nessuno ha ancora capito perché.

Uno sviluppatore ha creato un Pdf più grande dell’universo osservabile

Un file la cui estensione supera i 37 bilioni di anni luce e che, come ha detto lo sviluppatore, è meglio non provare a stampare.

La Casa Bianca ha pubblicato sui social la foto “ghiblizzata” di un’immigrata che viene espulsa

Dimostrando come la nuova funzione di ChatGPT possa essere usata a fini di discriminazione.

La nuova versione di ChatGPT è bravissima a generare immagini nello stile dello Studio Ghibli

Una nuova funzione che ha (prevedibilmente) conquistato internet: sono già migliaia le immagini ghiblizzate, tra foto, meme e scene di film.

Napster non lo usa più nessuno ma è stato comunque venduto per 200 milioni di dollari

A un'azienda che vuole trasformarlo in un "metaverso dedicato alla musica" in cui artisti e fan possono passare il tempo assieme.

Il chubby filter di TikTok dimostra che la grassofobia non se n’è mai andata

«Nothing tastes as good as skinny feels», diceva Kate Moss a Wwd nel 2009: sedici anni dopo un filtro di TikTok dimostra, ancora una volta, che non è cambiato nulla.