Cerca
Cerca solo i titoli
Da:
Cerca solo i titoli
Da:
Forum
Nuovi messaggi
All threads
Latest threads
New posts
Trending threads
Trending
Cerca nel forum
Media
New media
New comments
Search media
Risorse
Latest reviews
Cerca risorse
Entra
Registrati
Cerca
Cerca solo i titoli
Da:
Cerca solo i titoli
Da:
Menu
Install the app
Install
Rispondi alla discussione
Benvenuto/a nella nostra community!
Vuoi far parte delle nostre discussioni? Unisciti ora!
Iscriviti
Forum
Sezione Principale
Attualità - Internet
Persino i ricercatori di Facebook sono stati spinti nelle braccia dei cospirazionisti di QAnon
JavaScript è disabilitato. Per una migliore esperienza si prega di attivare JavaScript sul suo browser.
You are using an out of date browser. It may not display this or other websites correctly.
You should upgrade or use an
alternative browser
.
Messaggio
<blockquote data-quote="Kevin Carboni" data-source="post: 455"><p><img src="https://images.wired.it/wp-content/uploads/2020/10/16125558/GettyImages-1229014631.jpg" alt="" class="fr-fic fr-dii fr-draggable " style="" /></p><p>(Photo by Stephanie Keith/Getty Images)</p><p></p><p>Tra il 2019 e il 2020, <strong><a href="https://www.wired.it/internet/social-network/2021/09/24/facebook-sta-passando-il-suo-momento-peggiore-dal-caso-di-cambridge-analytica/" target="_blank">Facebook</a> </strong>ha creato una serie di<strong> account fittizi </strong>per studiare il ruolo della piattaforma nel <strong>diffondere contenuti disinformativi</strong> e polarizzare gli utenti attraverso il suo sistema di suggerimenti. La ricerca ha dimostrato come l’algoritmo sostenesse la <strong>diffusione dei gruppi più radicali e legati alle teorie del complotto, come <a href="https://www.wired.it/internet/social-network/2021/07/09/qanon-profili-facebook/" target="_blank">QAnon</a></strong>, spingendo gli utenti in “camere di risonanza” sempre più strette, dove prosperavano contenuti di incitamento all’odio e alla violenza. I risultati della ricerca sono stati resi noti grazie a <a href="https://www.wired.it/internet/social-network/2021/10/04/facebook-odio-fake-news-testimone/" target="_blank">Frances Haugen</a>, ex product manager di Facebook, che da maggio ha deciso di divulgare migliaia di pagine di documenti riservati.</p><p></p><p>Nell’estate 2019 compare su Facebook il profilo di Carol Smith, che si descrive come <strong>una madre di orientamento politico conservatore</strong>, proveniente dalla North Carolina. L’account di Smith indica anche <strong>interessi per la politica, la famiglia, il cristianesimo</strong> e segue alcuni profili come quello di<strong> Fox News</strong> e dell’ex presidente statunitense <strong>Donald Trump</strong>. Nonostante Smith non metta like o segua account legati alle teorie del complotto, in soli due giorni Facebook comincia a suggerirle di<strong> iscriversi a gruppi dedicati a QAnon</strong>, teoria del complotto che circola in ambienti di estrema destra.</p><p></p><p>Smith ha poi deciso di non seguire i gruppi di QAnon suggeriti, ma l’algoritmo ha continuato a <strong>spingerla verso pagine e gruppi radicalizzati e violenti</strong>, molti dei quali sono <strong>poi stati sospesi per aver violato le regole di Facebook</strong>, comprese quelle sui discorsi di odio e la diffusione di contenuti disinformativi. Smith era uno degli<strong> account fittizi gestiti dai ricercatori di Facebook</strong>, per studiare come gli algoritmi siano responsabili della diffusione di contenuti pericolosi.</p><p></p><p>I risultati della ricerca, raccolti in un rapporto intitolato <em>Carol’s journey to QAnon</em> (il viaggio di Carol verso QAnon), sono tra le prove presentate da Haugen davanti al Congresso statunitense per dimostrare come <strong>Facebook non abbia voluto agire nel limitare la crescita dei contenuti disinformativi e pericolosi</strong>, pur essendo a conoscenza del problema. Secondo Haugen infatti, <strong>m</strong>anager e dirigenti di Facebook avrebbero <strong>volontariamente ignorato i report interni</strong>, consentendo di fatto ai gruppi no-vax, a quelli cospirazionisti o violenti di prosperare e attrarre nuovi seguaci.</p><p></p><p><em>“Questi documenti confermano efficacemente ciò che i ricercatori esterni stanno dicendo da anni, ma che è stato spesso respinto da Facebook –</em> ha detto Renée Di Resta, ricercatrice presso lo Stanford internet observatory, a <a href="https://www.cnbc.com/2021/10/23/carols-journey-what-facebook-knew-about-how-it-radicalized-users.html" target="_blank"><em>Cnbc news</em></a> – <em>cioè che un gruppo relativamente piccolo di utenti è in grado di <strong>dirottare la piattaforma a proprio vantaggio</strong>, perché Facebook non è intervenuto per impedirglielo, nonostante fosse a conoscenza dei rischi. Facebook ha letteralmente<strong> contribuito a far nascere una setta</strong>”. </em></p><p></p><p>The post <a href="https://www.wired.it/internet/social-network/2021/10/25/facebook-qanon-complotto-fake-account/" target="_blank">Persino i ricercatori di Facebook sono stati spinti nelle braccia dei cospirazionisti di QAnon</a> appeared first on <a href="https://www.wired.it" target="_blank">Wired</a>.</p><p></p><p><a href="https://www.wired.it/internet/social-network/2021/10/25/facebook-qanon-complotto-fake-account/" target="_blank">Link originale...</a></p></blockquote><p></p>
[QUOTE="Kevin Carboni, post: 455"] [IMG]https://images.wired.it/wp-content/uploads/2020/10/16125558/GettyImages-1229014631.jpg[/IMG] (Photo by Stephanie Keith/Getty Images) Tra il 2019 e il 2020, [B][URL='https://www.wired.it/internet/social-network/2021/09/24/facebook-sta-passando-il-suo-momento-peggiore-dal-caso-di-cambridge-analytica/']Facebook[/URL] [/B]ha creato una serie di[B] account fittizi [/B]per studiare il ruolo della piattaforma nel [B]diffondere contenuti disinformativi[/B] e polarizzare gli utenti attraverso il suo sistema di suggerimenti. La ricerca ha dimostrato come l’algoritmo sostenesse la [B]diffusione dei gruppi più radicali e legati alle teorie del complotto, come [URL='https://www.wired.it/internet/social-network/2021/07/09/qanon-profili-facebook/']QAnon[/URL][/B], spingendo gli utenti in “camere di risonanza” sempre più strette, dove prosperavano contenuti di incitamento all’odio e alla violenza. I risultati della ricerca sono stati resi noti grazie a [URL='https://www.wired.it/internet/social-network/2021/10/04/facebook-odio-fake-news-testimone/']Frances Haugen[/URL], ex product manager di Facebook, che da maggio ha deciso di divulgare migliaia di pagine di documenti riservati. Nell’estate 2019 compare su Facebook il profilo di Carol Smith, che si descrive come [B]una madre di orientamento politico conservatore[/B], proveniente dalla North Carolina. L’account di Smith indica anche [B]interessi per la politica, la famiglia, il cristianesimo[/B] e segue alcuni profili come quello di[B] Fox News[/B] e dell’ex presidente statunitense [B]Donald Trump[/B]. Nonostante Smith non metta like o segua account legati alle teorie del complotto, in soli due giorni Facebook comincia a suggerirle di[B] iscriversi a gruppi dedicati a QAnon[/B], teoria del complotto che circola in ambienti di estrema destra. Smith ha poi deciso di non seguire i gruppi di QAnon suggeriti, ma l’algoritmo ha continuato a [B]spingerla verso pagine e gruppi radicalizzati e violenti[/B], molti dei quali sono [B]poi stati sospesi per aver violato le regole di Facebook[/B], comprese quelle sui discorsi di odio e la diffusione di contenuti disinformativi. Smith era uno degli[B] account fittizi gestiti dai ricercatori di Facebook[/B], per studiare come gli algoritmi siano responsabili della diffusione di contenuti pericolosi. I risultati della ricerca, raccolti in un rapporto intitolato [I]Carol’s journey to QAnon[/I] (il viaggio di Carol verso QAnon), sono tra le prove presentate da Haugen davanti al Congresso statunitense per dimostrare come [B]Facebook non abbia voluto agire nel limitare la crescita dei contenuti disinformativi e pericolosi[/B], pur essendo a conoscenza del problema. Secondo Haugen infatti, [B]m[/B]anager e dirigenti di Facebook avrebbero [B]volontariamente ignorato i report interni[/B], consentendo di fatto ai gruppi no-vax, a quelli cospirazionisti o violenti di prosperare e attrarre nuovi seguaci. [I]“Questi documenti confermano efficacemente ciò che i ricercatori esterni stanno dicendo da anni, ma che è stato spesso respinto da Facebook –[/I] ha detto Renée Di Resta, ricercatrice presso lo Stanford internet observatory, a [URL='https://www.cnbc.com/2021/10/23/carols-journey-what-facebook-knew-about-how-it-radicalized-users.html'][I]Cnbc news[/I][/URL] – [I]cioè che un gruppo relativamente piccolo di utenti è in grado di [B]dirottare la piattaforma a proprio vantaggio[/B], perché Facebook non è intervenuto per impedirglielo, nonostante fosse a conoscenza dei rischi. Facebook ha letteralmente[B] contribuito a far nascere una setta[/B]”. [/I] The post [URL='https://www.wired.it/internet/social-network/2021/10/25/facebook-qanon-complotto-fake-account/']Persino i ricercatori di Facebook sono stati spinti nelle braccia dei cospirazionisti di QAnon[/URL] appeared first on [URL='https://www.wired.it']Wired[/URL]. [url="https://www.wired.it/internet/social-network/2021/10/25/facebook-qanon-complotto-fake-account/"]Link originale...[/url] [/QUOTE]
Inserisci citazione...
Verifica
Pubblica risposta
Top
Bottom
This site uses cookies. By continuing to use this site, you are agreeing to our use of cookies.
Accetto
Leggi altro....