Wired Italia Oscurare o no i contenuti sui social network? Il dilemma del deplatforming

Benvenuto/a nella nostra community!
Vuoi far parte delle nostre discussioni? Unisciti ora!
Iscriviti
1523448949_GettyImages-944480672.jpg

(Foto di Alex Wong/Getty Images)

Le posizioni sono note. Da una parte, chi ritiene che i social network, guidati da società private, non dovrebbero poter privare dei personaggi pubblici di questi cruciali mezzi di comunicazione; men che meno un presidente democraticamente eletto. Dall’altra, chi pensa che tutti gli utenti di Facebook o di Twitter, indipendemente dalla loro importanza, dovrebbero essere soggetti alle stesse regole. E quindi rimossi nel momento in cui violano i termini e le condizioni (incitando alla violenza, come Donald Trump, o in altri modi).

Chi ha ragione? “La mia posizione è più sfumata”, spiega a Wired Jillian York, attivista e responsabile della libertà d’espressione per Eff (Electronic Frontier Foundation, ong in difesa dei diritti civili online). “Secondo me è molto importante che queste piattaforme trattino i politici e le figure pubbliche come tutti gli altri utenti. Anzi, si potrebbe sostenere che – proprio per la posizione che rivestono – sia necessario richiedere loro uno standard di comportamento ancora più elevato. Al momento, invece, lo standard a cui sono soggetti è quasi sempre inferiore: c’è molta più tolleranza nei loro confronti. Allo stesso tempo, faccio fatica ad accettare che una persona che non è stata democraticamente eletta, come Mark Zuckerberg o chiunque altro del suo staff, possa prendere decisioni su persone che, nel bene o nel male, sono state elette. Donald Trump, ovviamente, non è l’unico esempio: lo stesso si è verificato anche in altre nazioni”.

La questione di deplatforming


Il deplatforming – la rimozione di gruppi e persone dai social, privandoli così della loro piattaforma di comunicazione – non ha ovviamente coinvolto solo figure pubbliche di spicco, ma anche gruppi estremisti o violenti, teorici del complotto e altri ancora. In alcuni casi generando grandi sospiri di sollievo – com’è avvenuto con QAnon – e in altri destando invece parecchia preoccupazione (per esempio quando Facebook ha rimosso contenuti filopalestinesi). Le reazioni contrastanti a decisioni che, nell’ottica di Facebook, potrebbero anche essere coerenti illustra quanto si sia ancora distanti dal trovare una quadratura del cerchio.

Lo dimostra anche la confusione che regna attorno alle teorie del complotto: quando se ne diffonde una considerata pericolosa, tutti chiedono a Facebook, Twitter e YouTube di intervenire. Quando poi queste società intervengono, ci si preoccupa giustamente di aver appaltato a società private la decisione su cosa sia “teoria del complotto” e cosa magari sana controinformazione. Più in generale, cosa possa o meno venir detto sui social.

“Non solo: sappiamo anche che entrambi gli schieramenti politici invocano la censura. Semplicemente si invoca la censura di cose diverse”, prosegue Jillian York, che del tema parlerà a Modena in occasione del Dig Festival, dal 30 settembre al 3 ottobre. “La destra per esempio è più preoccupata da nudità, sessualità e cose del genere; mentre la sinistra punta di più su hate speech e simili. Entrambi invece vorrebbero eliminare l’estremismo violento. In generale, credo che nessuno si renda conto che la questione è molto più complessa di come vogliono farla apparire: stiamo parlando di mettere al bando dai social e di censurare contenuti come se fossero le uniche soluzioni a problemi decisamente più grandi. Si tratta di profonde questioni sociali, ma noi passiamo più tempo a cercare soluzioni tecniche di quanto non ne passiamo a studiare rimedi che vadano alla radice dell’estremismo o dell’hate speech”.

È un tema cruciale e che a sua volta rimanda a un’altra questione. Per lungo tempo, Mark Zuckerberg, Jack Dorsey e compagnia sono parsi convinti di poter definitivamente sradicare gli abusi o la violenza dai loro social. Sarebbe bastato istruire un potente algoritmo di intelligenza artificiale o ampliare la platea dei moderatori o magari affidarsi alle segnalazioni del pubblico. Peccato che ogni singola potenziale soluzione abbia risolto qualche problema, ma ne abbia sempre generati di nuovi, in uno schiaccia-la-talpa senza fine. Parte del grattacapo è probabilmente che, per formazione, programmatori e ingegneri informatici come Zuckerberg e gli altri sono naturalmente portati a cercare soluzioni tecniche e tecnologiche, senza però soffermarsi – a livello più ampio e teorico – sulle possibili conseguenze delle loro scelte.

Oltre le sole questioni tecniche​


“Cercano soluzioni tecniche, ma non hanno né il background né la formazione per osservare queste questioni in tutta la loro complessità, prosegue York. “Così come non possono essere solo gli ingegneri a occuparsi di questi temi, perché cercheranno di ingegnerizzare una via d’uscita dai problemi, non possono però nemmeno essere solo degli scienziati sociali, perché non sempre sono in grado di pensare agli aspetti pratici delle piattaforme. Per questo è così importante che a occuparsi di queste cose sia un gruppo di persone il più possibile diverso: per formazione, etnia, nazione, genere e qualunque altro tipo di diversità”.

Una considerazione che fa subito venire in mente l’Oversight Board, il comitato indipendente formato da Facebook e a cui sono state appaltate alcune decisioni di questo tipo, seppur con paletti abbastanza limitanti. È la risposta giusta? “Prima di tutto, non penso che questi problemi abbiano una sola risposta, prosegue l’attivista dell’Eff. “Penso che quel comitato possa essere parte della soluzione, anche se ho parecchie critiche nei confronti del suo funzionamento e di com’è stato impostato e progettato. Allo stesso tempo penso che ci siano parecchi aspetti positivi: molti membri hanno eccellenti competenze e hanno espresso raccomandazioni e suggerimenti radicali e di grande valore. È sicuramente qualcosa che va tenuto d’occhio, per quanto con un occhio critico”.

The post Oscurare o no i contenuti sui social network? Il dilemma del deplatforming appeared first on Wired.

Link originale...