Entradas

Mostrando las entradas etiquetadas como Desinformación

Qué es la desinformación, por qué se difunde y cómo detenerla

https://www.accessnow.org/what-is-disinformation-how-to-stop-it/ ¿Qué es la desinformación? La desinformación es una información falsa o engañosa, creada para influir en la gente. Puede adoptar muchas formas diferentes y existía mucho antes de Internet. Todos los países luchan contra la difusión de desinformación en la red, tanto si se vive en una democracia como en un régimen autoritario. A menudo rodea a temas políticos divisivos, como la migración, la vacunación o las políticas de género, sexualidad, raza, religión, etc.  A medida que las comunicaciones se trasladan a Internet, también lo hace la desinformación. Los modelos de negocio publicitario de las grandes plataformas online, que explotan nuestros datos personales para obtener beneficios, han contribuido a la rápida difusión de la desinformación. Durante la pandemia mundial, hemos sido testigos de cómo la desinformación, a menudo fabricada y difundida por políticos y otras figuras públicas, puede incitar a la violencia y a...

Es hora de pensar más allá de la desinformación y las noticias falsas

https://www.cigionline.org/articles/its-time-to-think-beyond-the-problems-of-disinformation-and-false-news/ Facebook está teniendo un mes muy malo. Esta semana, varios de sus productos de medios digitales -incluidos Facebook, Instagram y WhatsApp- han caído durante un periodo prolongado. Sus acciones se han desplomado. Mientras tanto, The Wall Street Journal ha publicado varias historias en las últimas dos semanas sobre los problemas y las fechorías de la empresa. La muy discutida serie "The Facebook Files" (Los archivos de Facebook) revela una serie de problemas con los productos de la empresa: exenciones de las normas para usuarios de alto perfil involucrados en el acoso; supresión de conocimientos internos sobre la nocividad de Instagram para las adolescentes; una base de usuarios cada vez más enojada y maliciosa a pesar de la supuesta intención de la empresa de fomentar un compromiso constructivo; olas incontroladas de desinformación sobre la vacuna COVID-19; y mucho más....

Los robots que no son

https://dailysceptic.org/2021/09/10/the-bots-that-are-not/ Desde 2016 se ha culpado a las cuentas automatizadas de Twitter de Donald Trump y del Brexit (muchas veces), de la política brasileña, de la política venezolana, del escepticismo de la climatología, de la desinformación sobre el cannabis, del sentimiento antiinmigración, del vaping e, inevitablemente, de la desconfianza hacia las vacunas COVID. Los artículos de noticias sobre bots están respaldados por una cantidad sorprendentemente grande de investigación académica. Sólo Google Scholar indexa casi 10.000 artículos sobre el tema. Algunos de estos trabajos han recibido una amplia cobertura

Cómo Facebook se volvió adicto a difundir información errónea

https://www.technologyreview.com/2021/03/11/1020600/facebook-responsible-ai-misinformation/ Joaquín Quiñonero Candela, director de IA en Facebook, se disculpaba con su audiencia. Era el 23 de marzo de 2018, pocos días después de la revelación de que Cambridge Analytica, una consultora que trabajó en la campaña de las elecciones presidenciales de 2016 de Donald Trump, había desviado subrepticiamente los datos personales de decenas de millones de estadounidenses de sus cuentas de Facebook en un intento de influir en cómo ellos votaron. Fue la mayor violación de privacidad en la historia de Facebook, y previamente se había programado que Quiñonero hablara en una conferencia sobre, entre otras cosas, "la intersección de la inteligencia artificial, la ética y la privacidad" en la empresa. Consideró cancelar, pero después de debatirlo con su director de comunicaciones, mantuvo su tiempo asignado.

Desinformación industrializada: Inventario global 2020 de manipulación organizada de redes sociales

 La manipulación de la opinión pública en las redes sociales sigue siendo una amenaza crítica para la democracia. Durante los últimos cuatro años, hemos monitoreado la organización global de la manipulación de las redes sociales por parte de gobiernos y partidos políticos, y las diversas empresas privadas y otras organizaciones con las que trabajan para difundir desinformación. Nuestro informe de 2020 destaca las tendencias recientes de la propaganda computacional en 81 países y las herramientas, capacidades, estrategias y recursos en evolución que se utilizan para manipular la opinión pública en todo el mundo. Identificamos tres tendencias clave en el inventario de actividades de desinformación de este año: La actividad de las tropas cibernéticas sigue aumentando en todo el mundo. Este año, encontramos evidencia de 81 países que utilizan las redes sociales para difundir propaganda computacional y desinformación sobre política. Esto ha aumentado con respecto al informe del año pasa...

Los límites del discurso político: por qué tienen sentido las prohibiciones de Trump

Varias empresas de tecnología han prohibido recientemente a Donald Trump por incitar a una insurrección desenfrenada y mortal. Muchos han criticado estas decisiones como censura. Los expertos en la ley de libertad de expresión han explicado pacientemente que solo el estado está sujeto a la Primera Enmienda, no las empresas privadas. Desde esta perspectiva, la distinción entre lo público y lo privado es primordial, y las empresas de tecnología se ubican en el lado derecho de ella, como oradores mismos (en lugar de reguladores del habla). Pero, ¿y si es precisamente el carácter público de las empresas tecnológicas clave, su papel fundamental en la configuración de nuestro discurso político, lo que justifica las prohibiciones? Creo que tal comprensión podría ser fundamental para sanar la democracia de EE. UU., Y expongo un caso a continuación. He estado pensando en la regulación de (y por) las plataformas de Internet durante muchos años. Mi preocupación inicial era que los monopolistas ap...

Cómo los estados y las plataformas tratan con Covid-19 Desinformación: un estudio exploratorio de 20 países

 Los documentos de trabajo de la Red Global Digital de Derechos Humanos contienen tanto un idealista como una dimensión orientada a la práctica. A menudo es difícil pero siempre inevitable para el mundo académico llegar al "mundo real". Los académicos que trabajan con los derechos humanos digitales tienen desde hace algún tiempo se dio cuenta de que en el dominio digital de los derechos humanos la teoría importa menos y las soluciones técnicas importa más. La serie Working Paper, de nuevo idealista, intenta invertir este patrón.El nivel de pragmatismo de este objetivo depende de la capacidad de la Red para romper o al menos cuestionar el fortalecimiento de las empresas en línea como actores poderosos en la definición deimagen de los derechos humanos en el panorama digital. La actual edición inaugural muestra claramente cómo los tiempos turbulentos aceleran la solidificación del novedoso “paradigma digital” en la protección de los derechos humanos. Lo que en tiempos ordinarios...

Libro blanco en línea sobre daños

 El gobierno quiere que el Reino Unido sea el lugar más seguro del mundo para conectarse a Internet y el mejor lugar para iniciar y hacer crecer un negocio digital. Dada la prevalencia de contenido ilegal y dañino en línea y el nivel de preocupación pública por los daños en línea, no solo en el Reino Unido sino en todo el mundo, creemos que la economía digital necesita urgentemente un nuevo marco regulatorio para mejorar la seguridad de nuestros ciudadanos en línea. Esto reconstruirá la confianza pública y establecerá expectativas claras para las empresas, lo que permitirá a nuestros ciudadanos disfrutar de forma más segura de los beneficios que ofrecen los servicios en línea. https://www.gov.uk/government/consultations/online-harms-white-paper/online-harms-white-paper

Cómo lidiar con la desinformación creada con IA

 Los ataques rápidos de desinformación, es decir, los ataques en los que la desinformación se desencadena de forma rápida y amplia con el objetivo de crear un efecto disruptivo inmediato, son uno de los desafíos más importantes del ecosistema digital. Considere lo siguiente hipotético: En la mañana del día de las elecciones en una elección presidencial estadounidense muy disputada, los partidarios de un candidato lanzan una campaña de desinformación [1] destinada a suprimir los votos a favor del candidato contrario en un estado clave de transición. Después de identificar los distritos en el estado donde es probable que la mayoría de los votantes voten por el oponente, los autores del ataque de desinformación desatan una sofisticada campaña en las redes sociales para difundir lo que parecen ser relatos en primera persona de personas que fueron a los lugares de votación en esos países. precintos y los encontró cerrados. https://www.brookings.edu/research/how-to-deal-with-ai-enabled-d...

Consideraciones para la investigación de mensajes cerrados en contextos democráticos

 Las aplicaciones de mensajería cerrada como WhatsApp, Facebook Messenger y WeChat han aumentado en uso en los últimos años y pueden actuar como medios políticos para difundir información. Al estudiar cuestiones relacionadas con las comunicaciones relacionadas con las elecciones, los investigadores se enfrentan a enigmas éticos debido a la naturaleza de privacidad encriptada de los chats grupales. Sehat y Kaminski presentan una revisión de cuatro modelos utilizados por los investigadores: contribución voluntaria, asociaciones focalizadas, entrada con identificación y entrada sin identificación. Concluyen planteando y analizando las complejidades de seis cuestiones éticas que los investigadores consideran implícita o explícitamente antes de la recopilación y el análisis de datos de investigación de mensajes cerrados. Estas preguntas abordan cuestiones de chats públicos frente a privados, propiedad de los datos, consentimiento informado, intercambio de información y conflictos de int...

Por qué las redes sociales no pueden seguir moderando el contenido en la sombra

 En 2016, podía contar por un lado los tipos de intervenciones que las empresas de tecnología estaban dispuestas a utilizar para librar a sus plataformas de información errónea, discurso de odio y acoso. A lo largo de los años, los mecanismos toscos como el bloqueo de contenido y la prohibición de cuentas se han transformado en un conjunto de herramientas más complejo, que incluyen temas de cuarentena, eliminación de publicaciones de la búsqueda, recomendaciones de exclusión y clasificación descendente de publicaciones en prioridad. Y, sin embargo, incluso con más opciones a su disposición, la desinformación sigue siendo un problema grave. Hubo mucha cobertura sobre la desinformación el día de las elecciones; mi colega Emily Drefyuss descubrió, por ejemplo, que cuando Twitter trató de lidiar con el contenido usando el hashtag #BidenCrimeFamily, con tácticas que incluían "desindexación" al bloquear los resultados de búsqueda, los usuarios incluido Donald Trump adaptado utiliza...

Amenazas para la salud en la infosfera

 Desde 2016, las empresas de redes sociales y los proveedores de noticias se han visto presionados para abordar la propagación de la desinformación y la desinformación políticas (MDI) en línea. A pesar de la evidencia de que el MDI de salud en línea (en la web, en las redes sociales y dentro de las aplicaciones móviles) también tiene efectos negativos en el mundo real, ni los proveedores de servicios en línea ni los organismos de salud pública patrocinados por el estado han tomado medidas comparables. Actualmente existen innumerables comunidades en línea que promueven comportamientos nocivos. Las aplicaciones no documentadas y no reguladas están disponibles gratuitamente para su descarga. Y la promoción imprudente de las dietas de moda y las tendencias de bienestar no probadas por parte de las celebridades a través de las redes sociales está provocando la propagación de varios comportamientos peligrosos. https://www.publichealthpost.org/viewpoints/health-threats-in-the-infosphere/ ...

En 2020, Nadie sabes que eres un Chatbot

 Describe someramente lo que es un chatbot, tipos de chatbots y la California Act que obliga a los chatbots a identificarse. https://montrealethics.ai/in-2020-nobody-knows-youre-a-chatbot/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Cinco problemas tecnológicos que enfrenta la próxima administración

 Grotto y Zacharia llevaron su propuesta de camino al New York Times, ABC, NPR y otros. “Todavía no hemos encontrado una organización de noticias que tenga un plan en marcha”, dice Zacharia. Ella y Grotto aconsejaron a las organizaciones que se consideraran a sí mismas un adversario objetivo. “Piensa si te están engañando o usando”, dice, “aumenta tu escepticismo. Desarrolle el músculo de su organización para determinar el origen y la naturaleza de la información viral ". https://hai.stanford.edu/blog/expert-roundtable-five-tech-issues-facing-next-administration Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

"Ha sido muy, muy malo": cómo los votantes hispanos están siendo atacados por la desinformación

Las comunidades hispanas son clave para algunos de los distritos indecisos más críticos en las elecciones y están siendo bombardeadas por propaganda online.  https://www.technologyreview.com/2020/10/12/1010061/hispanic-voter-political-targeting-facebook-whatsapp/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

En Facebook la desinformación es ahora más popular que en 2016

 El problema persiste, excepto que hay más personas que se involucran más con #fakenews: las plataformas cuyo modelo de negocio son los anuncios se benefician del contenido viral; las noticias falsas tienden a ser más virales que las verdaderas; va en contra de los resultados de Facebook deshacerse de dicho contenido (Carissa Véliz) La gente se está involucrando más en Facebook hoy en día con medios de comunicación que publican información errónea de forma rutinaria que antes de las elecciones de 2016, según una nueva investigación del German Marshall Fund Digital, el brazo digital del grupo de expertos en políticas públicas. La organización, que tiene una asociación de datos con la start-up NewsGuard y la firma de análisis de redes sociales NewsWhip, publicó sus hallazgos el lunes. https://www.nytimes.com/2020/10/12/technology/on-facebook-misinformation-is-more-popular-now-than-in-2016.html Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y E...

Dara Justice and COVID-19: Global Perspectives

 Es un informe de qué ha ocurrido durante los seis primeros meses de pandemia en relación a la regulación, desinformación, apps, gobernanza y emergencia digital https://ia801905.us.archive.org/23/items/data-justice-and-covid-19/Data_Justice_and_COVID-19.pdf Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La oferta de desinformación pronto será infinita

 Renée DiResta presenta algunos casos de desiformación  y prevé que habrá mucha desinformación generada con inteligencia artificial y que será difícil saber qué es verdad y qué es falso. https://www.theatlantic.com/ideas/archive/2020/09/future-propaganda-will-be-computer-generated/616400/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

El futuro de la privacidad

 Podcast de entrevista a Carissa Véliz. Los ataques a la privacidad son ataques a la democracia https://philosophy247.org/podcasts/the-future-of-privacy/ Otro artículo sobre su próximo libro https://aeon.co/essays/privacy-matters-because-it-empowers-us-all Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Desinformación y propaganda: impacto en el funcionamiento del Estado de derecho en la UE y sus Estados miembros Departamento de Política de Derechos de los Ciudadanos y Asuntos Constitucionales

 Este estudio, encargado por el Departamento de Política de Derechos de los Ciudadanos y Asuntos Constitucionales del Parlamento Europeo y solicitado por la Comisión de Libertades Civiles, Justicia y Asuntos de Interior del Parlamento Europeo, evalúa el impacto de la desinformación y la propaganda política estratégica difundida a través de los sitios de redes sociales en línea. Examina los efectos sobre el funcionamiento del Estado de Derecho, la democracia y los derechos fundamentales en la UE y sus Estados miembros. El estudio formula recomendaciones sobre cómo abordar esta amenaza para los derechos humanos, la democracia y el Estado de Derecho. Aborda específicamente el papel de los proveedores de plataformas de redes sociales en este sentido. https://www.academia.edu/38766246/Disinformation_and_propaganda_impact_on_the_functioning_of_the_rule_of_law_in_the_EU_and_its_Member_States_Policy_Department_for_Citizens_Rights_and_Constitutional_Affairs?email_work_card=title Editado por...