Cerca
Cerca solo i titoli
Da:
Cerca solo i titoli
Da:
Forum
Nuovi messaggi
All threads
Latest threads
New posts
Trending threads
Trending
Cerca nel forum
Media
New media
New comments
Search media
Risorse
Latest reviews
Cerca risorse
Entra
Registrati
Cerca
Cerca solo i titoli
Da:
Cerca solo i titoli
Da:
Menu
Install the app
Install
Rispondi alla discussione
Benvenuto/a nella nostra community!
Vuoi far parte delle nostre discussioni? Unisciti ora!
Iscriviti
Forum
Sezione Principale
Attualità - Internet
Facebook non riesce a moderare alcuni post perché la sua intelligenza artificiale non sa le lingue
JavaScript è disabilitato. Per una migliore esperienza si prega di attivare JavaScript sul suo browser.
You are using an out of date browser. It may not display this or other websites correctly.
You should upgrade or use an
alternative browser
.
Messaggio
<blockquote data-quote="Tommaso Meo" data-source="post: 398"><p><strong><img src="https://images.wired.it/wp-content/uploads/2021/06/07135743/facebook-conversazione.jpg" alt="" class="fr-fic fr-dii fr-draggable " style="" />Facebook</strong> sembra avere delle grandi difficoltà <strong>nella moderazione dei contenuti che provengono da alcuni Paesi</strong>, perché i suoi sistemi di <strong>intelligenza artificiale</strong> (Ai) non sono abbastanza avanzati da <strong>riconoscere alcune lingue</strong> e allo stesso tempo la società non ha a disposizione moderatori umani con queste competenze.</p><p></p><p>Il risultati di questa combinazione sono preoccupanti, come evidenziato da una nuova puntata delle inchieste <a href="https://www.wsj.com/articles/facebook-drug-cartels-human-traffickers-response-is-weak-documents-11631812953?mod=article_inline" target="_blank">del <em>Wall Street Journal</em> sulla piattaforma</a>, soprattutto se si pensa che Facebook è in espansione in molti di questi mercati. Oltre il 90% degli utenti mensili di Facebook si trova al momento al di fuori del Nord America.</p><p></p><p>In questi punti ciechi <strong>prosperano commerci illegali</strong>, oltre a contenuti violenti e incitamento all’odio. La piattaforma di Mark Zuckerberg, racconta il quotidiano, è utilizzata persino per vendere droga da parte dei cartelli messicani, con post in spagnolo.</p><p></p><p>Secondo il Wsj, che ha letto dei documenti interni, diversi dipendenti di Facebook<strong> sono a conoscenza di questo problema</strong> e si dicono preoccupati. Un ex vicepresidente della società ha dichiarato al giornale che Facebook considera il potenziale danno in Paesi stranieri come <em>“semplicemente il costo di fare affari”</em> in quei mercati. Nella maggior parte dei casi, Facebook ha rimosso i post <strong>solo quando hanno attirato l’attenzione del pubblico</strong> e non ha corretto i sistemi automatizzati che hanno consentito la pubblicazione di quel contenuto in prima battuta.</p><p></p><h3>Un problema noto</h3><p></p><p>Che Facebook, come anche Instagram, fosse usato da trafficanti non si scopre certo oggi. L’organizzazione americana<a href="https://www.counteringcrime.org/" target="_blank"><strong> Alliance to counter crime online</strong></a> (Acco) lo denuncia da tempo con report dettagliati e si era già accorta del problema di Facebook con le lingue. <em>“I nostri ricercatori hanno trovato post in lingua araba che <strong>vendono antichità saccheggiate</strong> e post in lingua vietnamita che propongono animali selvatici”,</em> ha scritto Acco sul suo account Twitter commentando la notizia data dal <em>Wall Street Journal.</em> La soluzione per l’organizzazione però potrebbe essere a portata di mano: <em>“Fino a quando Facebook non<strong> investirà nell’assunzione di moderatori di contenuti</strong> che parlino lingue diverse dall’inglese, continueremo a vedere un gran numero di crimini”</em>.</p><p></p><p>[MEDIA=twitter]1438582805961879552[/MEDIA] </p><p>Anche dal rapporto del <em>Wsj </em>emerge che sarebbe fondamentale per Facebook<strong> avere moderatori che parlino le lingue locali</strong>. La piattaforma era già stata accusata nel 2018 di avere tardato ad agire quando in <strong>Myanmar</strong> era esplosa la violenza contro i rohingya montata sui social. Così quest’anno ha avuto difficoltà a moderare i post di incitamento all’odio contro la popolazione del <strong>Tigray in Etiopia</strong>.</p><p></p><p>Affidarsi invece a sistemi di intelligenza artificiale o a personale non preparato è rischioso come suggerisce un altro esempio recente. Durante gli scontri tra israeliani e palestinesi dei mesi scorsi Facebook <strong>ha bloccato </strong>sulle sue piattaforme <strong>il riferimento alla moschea di Al-Aqsa</strong> a Gerusalemme, terzo luogo santo per i palestinesi, a causa del nome di un’organizzazione palestinese, le <strong>Brigate dei martiri di Al-Aqsa</strong>, che è stata etichettata come un’organizzazione terroristica dagli Stati Uniti e dall’Unione europea.</p><p></p><h3><strong>Gli algoritmi e la lotta alle fake news</strong></h3><p></p><p>Dopo le notizie uscite in questi giorni che hanno evidenziato diversi fallimenti <a href="https://www.wired.it/internet/social-network/2021/09/14/facebook-utenti-vip-regole/" target="_blank">e scorciatoie nella moderazione dei contenuti</a> Facebook ha rilanciato promettendo più trasparenza e assicurando di voler fare la propria parte <strong>combattendo in modo specifico la disinformazione sul cambiamento climatico</strong>. In un’audizione al Congresso di aprile Zuckerberg ha affermato che la disinformazione sul clima è <em>“un grosso problema”</em>.</p><p></p><p>La società ha annunciato che investirà un milione di dollari con questo intento <strong>per migliorare il fact checking sul clima</strong>. Facebook vorrebbe espandere il suo Centro di scienze climatiche per fornire informazioni più affidabili e lanciare una serie di video e quiz informativi. Tutte misure che puntano di migliorare la consapevolezza degli utenti e l’informazione intorno al clima ma che <a href="https://gizmodo.com/facebook-thinks-buzzfeed-style-quizzes-will-solve-its-c-1847686773" target="_blank">non assomigliano a scelte radicali</a>.</p><p></p><p>Anche in questo caso a combattere contro le fake news ci sono principalmente <strong>gli algoritmi</strong> e per ora non sembra sia andata troppo bene. Il gruppo di controllo del negazionismo climatico <a href="https://influencemap.org/" target="_blank">InfluenceMap</a> nell’ottobre 2020 aveva scoperto che dozzine pubblicità che negavano il riscaldamento globale <strong>sono state visualizzate più di 8 milioni</strong> di volte dopo essere passate attraverso i filtri del social network. Un recente studio condotto da Friends of the Earth, un’organizzazione ambientalista, ha rilevato che <strong>il 99% della disinformazione climatica</strong> sulle interruzioni di corrente in Texas lo scorso febbraio <strong>non è stata controllata</strong>.</p><p></p><p>The post <a href="https://www.wired.it/internet/social-network/2021/09/17/facebook-moderazione-contenuti-intelligenza-artificiale-lingue/" target="_blank">Facebook non riesce a moderare alcuni post perché la sua intelligenza artificiale non sa le lingue</a> appeared first on <a href="https://www.wired.it" target="_blank">Wired</a>.</p><p></p><p><a href="https://www.wired.it/internet/social-network/2021/09/17/facebook-moderazione-contenuti-intelligenza-artificiale-lingue/" target="_blank">Link originale...</a></p></blockquote><p></p>
[QUOTE="Tommaso Meo, post: 398"] [B][IMG]https://images.wired.it/wp-content/uploads/2021/06/07135743/facebook-conversazione.jpg[/IMG]Facebook[/B] sembra avere delle grandi difficoltà [B]nella moderazione dei contenuti che provengono da alcuni Paesi[/B], perché i suoi sistemi di [B]intelligenza artificiale[/B] (Ai) non sono abbastanza avanzati da [B]riconoscere alcune lingue[/B] e allo stesso tempo la società non ha a disposizione moderatori umani con queste competenze. Il risultati di questa combinazione sono preoccupanti, come evidenziato da una nuova puntata delle inchieste [URL='https://www.wsj.com/articles/facebook-drug-cartels-human-traffickers-response-is-weak-documents-11631812953?mod=article_inline']del [I]Wall Street Journal[/I] sulla piattaforma[/URL], soprattutto se si pensa che Facebook è in espansione in molti di questi mercati. Oltre il 90% degli utenti mensili di Facebook si trova al momento al di fuori del Nord America. In questi punti ciechi [B]prosperano commerci illegali[/B], oltre a contenuti violenti e incitamento all’odio. La piattaforma di Mark Zuckerberg, racconta il quotidiano, è utilizzata persino per vendere droga da parte dei cartelli messicani, con post in spagnolo. Secondo il Wsj, che ha letto dei documenti interni, diversi dipendenti di Facebook[B] sono a conoscenza di questo problema[/B] e si dicono preoccupati. Un ex vicepresidente della società ha dichiarato al giornale che Facebook considera il potenziale danno in Paesi stranieri come [I]“semplicemente il costo di fare affari”[/I] in quei mercati. Nella maggior parte dei casi, Facebook ha rimosso i post [B]solo quando hanno attirato l’attenzione del pubblico[/B] e non ha corretto i sistemi automatizzati che hanno consentito la pubblicazione di quel contenuto in prima battuta. [HEADING=2]Un problema noto[/HEADING] Che Facebook, come anche Instagram, fosse usato da trafficanti non si scopre certo oggi. L’organizzazione americana[URL='https://www.counteringcrime.org/'][B] Alliance to counter crime online[/B][/URL] (Acco) lo denuncia da tempo con report dettagliati e si era già accorta del problema di Facebook con le lingue. [I]“I nostri ricercatori hanno trovato post in lingua araba che [B]vendono antichità saccheggiate[/B] e post in lingua vietnamita che propongono animali selvatici”,[/I] ha scritto Acco sul suo account Twitter commentando la notizia data dal [I]Wall Street Journal.[/I] La soluzione per l’organizzazione però potrebbe essere a portata di mano: [I]“Fino a quando Facebook non[B] investirà nell’assunzione di moderatori di contenuti[/B] che parlino lingue diverse dall’inglese, continueremo a vedere un gran numero di crimini”[/I]. [MEDIA=twitter]1438582805961879552[/MEDIA] Anche dal rapporto del [I]Wsj [/I]emerge che sarebbe fondamentale per Facebook[B] avere moderatori che parlino le lingue locali[/B]. La piattaforma era già stata accusata nel 2018 di avere tardato ad agire quando in [B]Myanmar[/B] era esplosa la violenza contro i rohingya montata sui social. Così quest’anno ha avuto difficoltà a moderare i post di incitamento all’odio contro la popolazione del [B]Tigray in Etiopia[/B]. Affidarsi invece a sistemi di intelligenza artificiale o a personale non preparato è rischioso come suggerisce un altro esempio recente. Durante gli scontri tra israeliani e palestinesi dei mesi scorsi Facebook [B]ha bloccato [/B]sulle sue piattaforme [B]il riferimento alla moschea di Al-Aqsa[/B] a Gerusalemme, terzo luogo santo per i palestinesi, a causa del nome di un’organizzazione palestinese, le [B]Brigate dei martiri di Al-Aqsa[/B], che è stata etichettata come un’organizzazione terroristica dagli Stati Uniti e dall’Unione europea. [HEADING=2][B]Gli algoritmi e la lotta alle fake news[/B][/HEADING] Dopo le notizie uscite in questi giorni che hanno evidenziato diversi fallimenti [URL='https://www.wired.it/internet/social-network/2021/09/14/facebook-utenti-vip-regole/']e scorciatoie nella moderazione dei contenuti[/URL] Facebook ha rilanciato promettendo più trasparenza e assicurando di voler fare la propria parte [B]combattendo in modo specifico la disinformazione sul cambiamento climatico[/B]. In un’audizione al Congresso di aprile Zuckerberg ha affermato che la disinformazione sul clima è [I]“un grosso problema”[/I]. La società ha annunciato che investirà un milione di dollari con questo intento [B]per migliorare il fact checking sul clima[/B]. Facebook vorrebbe espandere il suo Centro di scienze climatiche per fornire informazioni più affidabili e lanciare una serie di video e quiz informativi. Tutte misure che puntano di migliorare la consapevolezza degli utenti e l’informazione intorno al clima ma che [URL='https://gizmodo.com/facebook-thinks-buzzfeed-style-quizzes-will-solve-its-c-1847686773']non assomigliano a scelte radicali[/URL]. Anche in questo caso a combattere contro le fake news ci sono principalmente [B]gli algoritmi[/B] e per ora non sembra sia andata troppo bene. Il gruppo di controllo del negazionismo climatico [URL='https://influencemap.org/']InfluenceMap[/URL] nell’ottobre 2020 aveva scoperto che dozzine pubblicità che negavano il riscaldamento globale [B]sono state visualizzate più di 8 milioni[/B] di volte dopo essere passate attraverso i filtri del social network. Un recente studio condotto da Friends of the Earth, un’organizzazione ambientalista, ha rilevato che [B]il 99% della disinformazione climatica[/B] sulle interruzioni di corrente in Texas lo scorso febbraio [B]non è stata controllata[/B]. The post [URL='https://www.wired.it/internet/social-network/2021/09/17/facebook-moderazione-contenuti-intelligenza-artificiale-lingue/']Facebook non riesce a moderare alcuni post perché la sua intelligenza artificiale non sa le lingue[/URL] appeared first on [URL='https://www.wired.it']Wired[/URL]. [url="https://www.wired.it/internet/social-network/2021/09/17/facebook-moderazione-contenuti-intelligenza-artificiale-lingue/"]Link originale...[/url] [/QUOTE]
Inserisci citazione...
Verifica
Pubblica risposta
Top
Bottom
This site uses cookies. By continuing to use this site, you are agreeing to our use of cookies.
Accetto
Leggi altro....