Cerca
Cerca solo i titoli
Da:
Cerca solo i titoli
Da:
Forum
Nuovi messaggi
All threads
Latest threads
New posts
Trending threads
Trending
Cerca nel forum
Media
New media
New comments
Search media
Risorse
Latest reviews
Cerca risorse
Entra
Registrati
Cerca
Cerca solo i titoli
Da:
Cerca solo i titoli
Da:
Menu
Install the app
Install
Rispondi alla discussione
Benvenuto/a nella nostra community!
Vuoi far parte delle nostre discussioni? Unisciti ora!
Iscriviti
Forum
Sezione Principale
Attualità - Internet
L’algoritmo di YouTube consiglia video che violano le sue linee guida
JavaScript è disabilitato. Per una migliore esperienza si prega di attivare JavaScript sul suo browser.
You are using an out of date browser. It may not display this or other websites correctly.
You should upgrade or use an
alternative browser
.
Messaggio
<blockquote data-quote="Tommaso Meo" data-source="post: 241"><p><img src="https://images.wired.it/wp-content/uploads/2021/07/08182016/alexander-shatov-niUkImZcSP8-unsplash.jpg" alt="YouTube algoritmo" class="fr-fic fr-dii fr-draggable " style="" /></p><p>(foto: Unsplash)</p><p></p><p>L’algoritmo di <a href="https://www.wired.it/internet/social-network/2019/10/22/youtube-algoritmo/" target="_blank">YouTube</a> consiglia regolarmente video che contengono contenuti che violano le policy della piattaforma. L’ha scoperto l’organizzazione no-profit <strong>Mozilla Foundation</strong>, utilizzando i dati di crowdsourcing di <a href="https://foundation.mozilla.org/en/campaigns/regrets-reporter/" target="_blank">RegretsReporter</a>, un’estensione del browser che gli utenti possono installare e utilizzare per segnalare informazioni su video dannosi, capendo così da dove provengono. Più di 30.000 utenti di YouTube hanno utilizzato l’estensione per segnalare questo tipo di contenuti.</p><p></p><p>Secondo l’ultima ricerca di Mozilla,<strong> 3.362 video</strong> sono stati contrassegnati come “sgradevoli” tra luglio 2020 e maggio 2021. Lo studio ha rilevato che il 71% dei video ritenuti deplorevoli dai volontari è stato attivamente raccomandato dall’algoritmo di YouTube. Un video può essere considerato spiacevole perché violento, di spam, o perché incita all’odio.</p><p></p><p>I non anglofoni avevano molte più probabilità di trovare video che consideravano inquietanti: il tasso su YouTube era del <strong>60% più alto</strong> nei paesi che non hanno l’inglese come lingua principale. Questo probabilmente significa che YouTube spende più energia e risorse per controllare i contenuti in lingua inglese, lasciando che i suoi algoritmi abbiano più libertà d’azione quando si tratta di altre lingue.</p><p></p><p>Quasi <strong>200 di questi video</strong> consigliati dall’algoritmo – circa il 9% del totale – sono stati ora rimossi da YouTube, ma avevano già collezionato 160 milioni di visualizzazioni totali.</p><p></p><p>Secondo Brandi Geurkink, Senior Manager of Advocacy di Mozilla, l’algoritmo di YouTube è progettato in modo da <strong>danneggiare e disinformare</strong> le persone. “<em>La nostra ricerca conferma che YouTube non solo ospita, ma consiglia attivamente video che violano le sue stesse norme”</em>, ha detto. Geurkink ha detto che questi risultati sono solo la punta dell’iceberg del problema, ma ha auspicato che “<em>convincano il pubblico e i legislatori dell’urgente necessità di una migliore trasparenza nell’intelligenza artificiale di YouTube</em>”.</p><p></p><p>L’algoritmo di YouTube guida il <strong>70% del tempo</strong> di visualizzazione sulla piattaforma, circa 700 milioni di ore ogni singolo giorno, consigliando contenuti che mantengono le persone sulla piattaforma. Questo comporta dei rischi, soprattutto per quanto riguarda la disinformazione.</p><p></p><p>Inoltre, dalla ricerca di Mozilla emerge anche che nel 43% dei caso dei video <strong>indesiderati</strong> e spiacevoli segnalati dagli utenti, questi non centravano niente con quello che le persone avevano visto in precedenza. I video segnalati nello studio sembrano però funzionare bene: hanno ottenuto il 70% di visualizzazioni in più al giorno rispetto ad altri contenuti guardati dai volontari.</p><p></p><p>YouTube nel corso degli anni si è mossa per ridurre la diffusione di contenuti dannosi con numerose modifiche ed eliminando i contenuti ritenuti <strong>“borderline”</strong>, ma lo studio di Mozilla suggerisce che c’è ancora molto lavoro da fare.</p><p></p><p>In una dichiarazione <a href="https://thenextweb.com/news/youtube-algorithm-recommends-videos-that-violate-platforms-policies-mozilla-study" target="_blank">a <em>The Next Web</em></a> un portavoce della piattaforma di proprietà di Google ha fatto sapere che YouTube lavora per migliorare l’esperienza degli utenti e <em>“solo nell’ultimo anno abbiamo introdotto oltre 30 diverse modifiche per ridurre i consigli sui contenuti dannosi”</em>. Grazie a questo cambiamento, secondo YouTube, <em>“il consumo di contenuti limite che deriva dalle nostre raccomandazioni è ora significativamente inferiore all’1%”</em>.</p><p></p><p>The post <a href="https://www.wired.it/internet/regole/2021/07/08/algoritmo-youtube-consiglia-video-violano-linee-guida/" target="_blank">L’algoritmo di YouTube consiglia video che violano le sue linee guida</a> appeared first on <a href="https://www.wired.it" target="_blank">Wired</a>.</p><p></p><p><a href="https://www.wired.it/internet/regole/2021/07/08/algoritmo-youtube-consiglia-video-violano-linee-guida/" target="_blank">Link originale...</a></p></blockquote><p></p>
[QUOTE="Tommaso Meo, post: 241"] [IMG alt="YouTube algoritmo"]https://images.wired.it/wp-content/uploads/2021/07/08182016/alexander-shatov-niUkImZcSP8-unsplash.jpg[/IMG] (foto: Unsplash) L’algoritmo di [URL='https://www.wired.it/internet/social-network/2019/10/22/youtube-algoritmo/']YouTube[/URL] consiglia regolarmente video che contengono contenuti che violano le policy della piattaforma. L’ha scoperto l’organizzazione no-profit [B]Mozilla Foundation[/B], utilizzando i dati di crowdsourcing di [URL='https://foundation.mozilla.org/en/campaigns/regrets-reporter/']RegretsReporter[/URL], un’estensione del browser che gli utenti possono installare e utilizzare per segnalare informazioni su video dannosi, capendo così da dove provengono. Più di 30.000 utenti di YouTube hanno utilizzato l’estensione per segnalare questo tipo di contenuti. Secondo l’ultima ricerca di Mozilla,[B] 3.362 video[/B] sono stati contrassegnati come “sgradevoli” tra luglio 2020 e maggio 2021. Lo studio ha rilevato che il 71% dei video ritenuti deplorevoli dai volontari è stato attivamente raccomandato dall’algoritmo di YouTube. Un video può essere considerato spiacevole perché violento, di spam, o perché incita all’odio. I non anglofoni avevano molte più probabilità di trovare video che consideravano inquietanti: il tasso su YouTube era del [B]60% più alto[/B] nei paesi che non hanno l’inglese come lingua principale. Questo probabilmente significa che YouTube spende più energia e risorse per controllare i contenuti in lingua inglese, lasciando che i suoi algoritmi abbiano più libertà d’azione quando si tratta di altre lingue. Quasi [B]200 di questi video[/B] consigliati dall’algoritmo – circa il 9% del totale – sono stati ora rimossi da YouTube, ma avevano già collezionato 160 milioni di visualizzazioni totali. Secondo Brandi Geurkink, Senior Manager of Advocacy di Mozilla, l’algoritmo di YouTube è progettato in modo da [B]danneggiare e disinformare[/B] le persone. “[I]La nostra ricerca conferma che YouTube non solo ospita, ma consiglia attivamente video che violano le sue stesse norme”[/I], ha detto. Geurkink ha detto che questi risultati sono solo la punta dell’iceberg del problema, ma ha auspicato che “[I]convincano il pubblico e i legislatori dell’urgente necessità di una migliore trasparenza nell’intelligenza artificiale di YouTube[/I]”. L’algoritmo di YouTube guida il [B]70% del tempo[/B] di visualizzazione sulla piattaforma, circa 700 milioni di ore ogni singolo giorno, consigliando contenuti che mantengono le persone sulla piattaforma. Questo comporta dei rischi, soprattutto per quanto riguarda la disinformazione. Inoltre, dalla ricerca di Mozilla emerge anche che nel 43% dei caso dei video [B]indesiderati[/B] e spiacevoli segnalati dagli utenti, questi non centravano niente con quello che le persone avevano visto in precedenza. I video segnalati nello studio sembrano però funzionare bene: hanno ottenuto il 70% di visualizzazioni in più al giorno rispetto ad altri contenuti guardati dai volontari. YouTube nel corso degli anni si è mossa per ridurre la diffusione di contenuti dannosi con numerose modifiche ed eliminando i contenuti ritenuti [B]“borderline”[/B], ma lo studio di Mozilla suggerisce che c’è ancora molto lavoro da fare. In una dichiarazione [URL='https://thenextweb.com/news/youtube-algorithm-recommends-videos-that-violate-platforms-policies-mozilla-study']a [I]The Next Web[/I][/URL] un portavoce della piattaforma di proprietà di Google ha fatto sapere che YouTube lavora per migliorare l’esperienza degli utenti e [I]“solo nell’ultimo anno abbiamo introdotto oltre 30 diverse modifiche per ridurre i consigli sui contenuti dannosi”[/I]. Grazie a questo cambiamento, secondo YouTube, [I]“il consumo di contenuti limite che deriva dalle nostre raccomandazioni è ora significativamente inferiore all’1%”[/I]. The post [URL='https://www.wired.it/internet/regole/2021/07/08/algoritmo-youtube-consiglia-video-violano-linee-guida/']L’algoritmo di YouTube consiglia video che violano le sue linee guida[/URL] appeared first on [URL='https://www.wired.it']Wired[/URL]. [url="https://www.wired.it/internet/regole/2021/07/08/algoritmo-youtube-consiglia-video-violano-linee-guida/"]Link originale...[/url] [/QUOTE]
Inserisci citazione...
Verifica
Pubblica risposta
Top
Bottom
This site uses cookies. By continuing to use this site, you are agreeing to our use of cookies.
Accetto
Leggi altro....