Wired Italia L’algoritmo di YouTube consiglia video che violano le sue linee guida

Benvenuto/a nella nostra community!
Vuoi far parte delle nostre discussioni? Unisciti ora!
Iscriviti
YouTube algoritmo

(foto: Unsplash)

L’algoritmo di YouTube consiglia regolarmente video che contengono contenuti che violano le policy della piattaforma. L’ha scoperto l’organizzazione no-profit Mozilla Foundation, utilizzando i dati di crowdsourcing di RegretsReporter, un’estensione del browser che gli utenti possono installare e utilizzare per segnalare informazioni su video dannosi, capendo così da dove provengono. Più di 30.000 utenti di YouTube hanno utilizzato l’estensione per segnalare questo tipo di contenuti.

Secondo l’ultima ricerca di Mozilla, 3.362 video sono stati contrassegnati come “sgradevoli” tra luglio 2020 e maggio 2021. Lo studio ha rilevato che il 71% dei video ritenuti deplorevoli dai volontari è stato attivamente raccomandato dall’algoritmo di YouTube. Un video può essere considerato spiacevole perché violento, di spam, o perché incita all’odio.

I non anglofoni avevano molte più probabilità di trovare video che consideravano inquietanti: il tasso su YouTube era del 60% più alto nei paesi che non hanno l’inglese come lingua principale. Questo probabilmente significa che YouTube spende più energia e risorse per controllare i contenuti in lingua inglese, lasciando che i suoi algoritmi abbiano più libertà d’azione quando si tratta di altre lingue.

Quasi 200 di questi video consigliati dall’algoritmo – circa il 9% del totale – sono stati ora rimossi da YouTube, ma avevano già collezionato 160 milioni di visualizzazioni totali.

Secondo Brandi Geurkink, Senior Manager of Advocacy di Mozilla, l’algoritmo di YouTube è progettato in modo da danneggiare e disinformare le persone. “La nostra ricerca conferma che YouTube non solo ospita, ma consiglia attivamente video che violano le sue stesse norme”, ha detto. Geurkink ha detto che questi risultati sono solo la punta dell’iceberg del problema, ma ha auspicato che “convincano il pubblico e i legislatori dell’urgente necessità di una migliore trasparenza nell’intelligenza artificiale di YouTube”.

L’algoritmo di YouTube guida il 70% del tempo di visualizzazione sulla piattaforma, circa 700 milioni di ore ogni singolo giorno, consigliando contenuti che mantengono le persone sulla piattaforma. Questo comporta dei rischi, soprattutto per quanto riguarda la disinformazione.

Inoltre, dalla ricerca di Mozilla emerge anche che nel 43% dei caso dei video indesiderati e spiacevoli segnalati dagli utenti, questi non centravano niente con quello che le persone avevano visto in precedenza. I video segnalati nello studio sembrano però funzionare bene: hanno ottenuto il 70% di visualizzazioni in più al giorno rispetto ad altri contenuti guardati dai volontari.

YouTube nel corso degli anni si è mossa per ridurre la diffusione di contenuti dannosi con numerose modifiche ed eliminando i contenuti ritenuti “borderline”, ma lo studio di Mozilla suggerisce che c’è ancora molto lavoro da fare.

In una dichiarazione a The Next Web un portavoce della piattaforma di proprietà di Google ha fatto sapere che YouTube lavora per migliorare l’esperienza degli utenti e “solo nell’ultimo anno abbiamo introdotto oltre 30 diverse modifiche per ridurre i consigli sui contenuti dannosi”. Grazie a questo cambiamento, secondo YouTube, “il consumo di contenuti limite che deriva dalle nostre raccomandazioni è ora significativamente inferiore all’1%”.

The post L’algoritmo di YouTube consiglia video che violano le sue linee guida appeared first on Wired.

Link originale...