Entradas

Mostrando las entradas etiquetadas como Hate speech discurso del odio

Cómo la extrema derecha australiana utiliza las criptomonedas para monetizar el odio en Internet

https://www.theguardian.com/technology/2021/dec/28/how-australias-far-right-uses-cryptocurrencies-to-monetise-hate-online?CMP=fb_a-technology_b-gdntech Nunca ha habido más formas de pedir dinero en Internet. Para los extremistas de derecha que buscan monetizar el odio, esto puede ser una gran oportunidad, y el potencial de ganancias de estos activos digitales no ha pasado desapercibido en Australia. A principios de este año, rastreé las redes de financiación asociadas a una muestra de canales australianos que comparten contenidos de extrema derecha en la aplicación de chat Telegram, y encontré enlaces a al menos 22 herramientas de financiación en línea. Estas incluían solicitudes de donaciones a través de direcciones de monederos de criptomonedas como bitcoin, monero, ethereum y litecoin. Por supuesto, el interés por las criptomonedas no es en sí mismo un indicio de racismo o extremismo, pero un análisis reciente del Southern Poverty Law Center (SPLC) descubrió que una cohorte de supre...

Por qué la IA tiene dificultades para reconocer el discurso tóxico en las redes sociales

https://hai.stanford.edu/news/why-ai-struggles-recognize-toxic-speech-social-media Facebook afirma que sus modelos de inteligencia artificial identificaron y retiraron 27 millones de mensajes de odio en los últimos tres meses de 2020. En el 97% de los casos, los sistemas actuaron antes de que los humanos hubieran marcado las publicaciones. Se trata de un gran avance, y todas las demás grandes plataformas de redes sociales están utilizando sistemas basados en la IA de forma similar. Dado que la gente publica cientos de millones de artículos cada día, desde comentarios y memes hasta artículos, no hay una alternativa real. Ningún ejército de moderadores humanos podría seguir el ritmo por sí solo. Pero un equipo de investigadores de interacción humano-ordenador e IA de Stanford arroja nueva luz sobre por qué la policía de la palabra automatizada puede obtener una puntuación muy precisa en las pruebas técnicas y, sin embargo, provocar un gran descontento en los humanos con sus decisiones....