Entradas

Mostrando entradas de abril, 2022

Los defectos de las políticas que exigen la supervisión humana de los algoritmos gubernamentales

https://www.sciencedirect.com/science/article/abs/pii/S0267364922000292?dgcid=author&s=03 A medida que los algoritmos se convierten en un componente influyente de la toma de decisiones de los gobiernos en todo el mundo, los responsables políticos han debatido cómo los gobiernos pueden obtener los beneficios de los algoritmos y, al mismo tiempo, evitar los daños de los mismos. Un mecanismo que se ha convertido en una pieza central de los esfuerzos globales para regular los algoritmos gubernamentales es exigir la supervisión humana de las decisiones algorítmicas. A pesar de la generalización de la supervisión humana, estas políticas se basan en un supuesto que no se ha cuestionado: que las personas son capaces de supervisar eficazmente la toma de decisiones de los algoritmos. En este artículo, analizo 41 políticas que prescriben la supervisión humana de los algoritmos gubernamentales y descubro que adolecen de dos defectos importantes. En primer lugar, la evidencia sugiere que las pe

Los peligros del aprendizaje automático en el diseño de nuevos productos químicos y materiales

https://www.nature.com/articles/s42256-022-00481-9?sf163926239=1&s=03 El aprendizaje automático está a punto de revolucionar la práctica de la química y la ciencia de los materiales. Ya se está utilizando el aprendizaje automático para encontrar nuevos compuestos farmacéuticos, incluso en la lucha contra la pandemia de COVID-19. Esto supone una gran promesa para el futuro, pero también un gran peligro. En este momento, se está prestando muy poca atención a los inconvenientes, como se señala en un reciente comentario de Urbina et al.1. Es fácil reconocer las ventajas del enfoque de aprendizaje automático para, por ejemplo, analizar la toxicidad de productos químicos y materiales, un área en la que trabajamos como equipo combinado de informáticos y químicos. En primer lugar, la necesidad es obvia si se tiene en cuenta que menos del 1% de las sustancias químicas registradas para uso comercial en Estados Unidos se han sometido a la caracterización de la toxicidad, ya sea para fines med

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

https://www.amacad.org/publication/multi-agent-systems-technical-ethical-challenges-functioning-mixed-group En el mundo informático actual, altamente interconectado y de red abierta, los agentes informáticos de la inteligencia artificial interactúan cada vez más en grupo entre sí y con las personas, tanto virtualmente como en el mundo físico. Los principales retos actuales de la IA consisten en determinar formas de construir sistemas de IA que funcionen de forma eficaz y segura para las personas y las sociedades en las que viven. Para incorporar el razonamiento sobre las personas, la investigación en sistemas multiagente ha generado cambios paradigmáticos en el diseño, los modelos y los métodos de los agentes informáticos, así como el desarrollo de nuevas representaciones de la información sobre los agentes y sus entornos. Estos cambios han planteado retos tanto técnicos como éticos y sociales. En este ensayo se describen los avances técnicos en las representaciones, la toma de decisio

¿Nos entienden los grandes modelos lingüísticos?

https://www.amacad.org/publication/do-large-language-models-understand-us Los grandes modelos lingüísticos (LLM) representan un gran avance en la inteligencia artificial y, en particular, hacia el objetivo de una inteligencia general artificial similar a la humana. Sin embargo, a veces se afirma que el aprendizaje automático es "sólo estadística" y que, por tanto, en esta gran ambición, el progreso de la IA es ilusorio. En este caso, yo opino lo contrario, que el aprendizaje automático tiene mucho que enseñarnos sobre la naturaleza del lenguaje, la comprensión, la inteligencia, la socialidad y la persona. En concreto: las estadísticas sí equivalen a la comprensión, en cualquier sentido falsable. Además, gran parte de lo que consideramos inteligencia es intrínsecamente dialógico, por tanto social; requiere una teoría de la mente. El aprendizaje de secuencias complejas y la interacción social pueden ser una base suficiente para la inteligencia general, incluyendo la teoría de l

Inteligencia artificial, ética humanista

https://www.amacad.org/publication/artificial-intelligence-humanistic-ethics La ética se ocupa de lo que significa vivir una vida floreciente y de lo que debemos moralmente a los demás. La mentalidad optimizadora que prevalece entre los informáticos y los economistas, entre otros poderosos actores, ha llevado a un enfoque centrado en la maximización de la satisfacción de las preferencias humanas, enfoque que ha adquirido una considerable influencia en la ética de la IA. Pero este utilitarismo basado en las preferencias está abierto a serias objeciones. Este ensayo esboza una ética alternativa, "humanista", para la IA que sea sensible a los aspectos del compromiso humano con la ética que a menudo se pasan por alto en el enfoque dominante. Se esbozan tres elementos de este enfoque humanista: su compromiso con una pluralidad de valores, su énfasis en la importancia de los procedimientos que adoptamos, no sólo de los resultados que producen, y la importancia que concede a la part

La dimensión moral de la toma de decisiones asistida por IA: Algunas perspectivas prácticas desde la primera línea

https://www.amacad.org/publication/moral-dimension-ai-assisted-decision-making-some-practical-perspectives-front-lines Este ensayo adopta un enfoque de ingeniería para garantizar que el despliegue de la inteligencia artificial no confunda los principios éticos, incluso en aplicaciones sensibles como la seguridad nacional. Existen técnicas de diseño en las tres partes de la arquitectura de la IA -algoritmos, conjuntos de datos y aplicaciones- que pueden utilizarse para incorporar importantes consideraciones morales. Por lo tanto, la novedad y la complejidad de la IA no pueden servir de excusa para que las empresas o los gobiernos obtengan resultados inmorales en su despliegue.

La desestructuración de los conocimientos técnicos en el desarrollo de la IA

https://static1.squarespace.com/static/5a728d57ace86429de8e21b7/t/622fa5385adb581da2c51c6d/1647289670093/The_Deskilling_of_Domain_Expertise_in_AI_Development.pdf Los trabajadores de campo, como los agricultores y los radiólogos, desempeñan un papel crucial en la recopilación de conjuntos de datos para los modelos de IA en entornos de bajos recursos. Sin embargo, sabemos poco sobre cómo se aprovecha la experiencia de los trabajadores de campo en el desarrollo de conjuntos de datos y modelos. A partir de 68 entrevistas con desarrolladores de IA para contextos de bajos recursos, descubrimos que los desarrolladores redujeron a los trabajadores de campo a recolectores de datos. Atribuyendo la mala calidad de los datos a las prácticas de los trabajadores, los desarrolladores concebían a los trabajadores como corruptos, perezosos, incumplidores y como conjuntos de datos en sí mismos, persiguiendo la vigilancia y la gamificación para disciplinar a los trabajadores para que recogieran datos de

La desestructuración de los conocimientos técnicos en el desarrollo de la IA

https://static1.squarespace.com/static/5a728d57ace86429de8e21b7/t/622fa5385adb581da2c51c6d/1647289670093/The_Deskilling_of_Domain_Expertise_in_AI_Development.pdf Los trabajadores de campo, como los agricultores y los radiólogos, desempeñan un papel crucial en de datos para los modelos de IA en entornos con pocos recursos. Sin embargo sabemos poco sobre cómo se aprovecha la experiencia de los trabajadores de campo en de datos y el desarrollo de modelos. A partir de 68 entrevistas con desarrolladores de IA que desarrollan IA para contextos de bajos recursos, descubrimos que los desarrolladores redujeron a los trabajadores de campo a recolectores de datos. Atribuyendo la mala calidad de los datos a las prácticas de los trabajadores de datos a las prácticas de los trabajadores, los desarrolladores los consideraban corruptos, perezosos, incumplidores y como conjuntos de datos en sí mismos, persiguiendo de datos, y persiguen la vigilancia y la ludificación para disciplinar a los trabajadores

Intel llama a su IA que detecta las emociones de los estudiantes una herramienta de enseñanza. Otros lo llaman "moralmente reprensible".

https://www.protocol.com/enterprise/emotion-ai-school-intel-edutech Cuando la instructora universitaria Angela Dancey quiere descifrar si sus estudiantes de inglés de primer año comprenden lo que está tratando de transmitir en clase, sus expresiones faciales y lenguaje corporal no revelan mucho. "Incluso en una clase en persona, los estudiantes pueden ser difíciles de leer. Por lo general, los estudiantes universitarios no se comunican mucho a través de sus caras, especialmente la falta de comprensión", dijo Dancey, profesora titular de la Universidad de Illinois en Chicago. Dancey utiliza métodos probados y verdaderos, como pedir a los estudiantes que identifiquen su "punto más confuso", un concepto o idea con la que dijo que los estudiantes todavía luchan, después de una conferencia o discusión. "Les pido que lo escriban, lo compartan y lo abordamos como una clase para el beneficio de todos", dijo.

Resista el impulso de ser impresionado

https://medium.com/@emilymenonbender/on-nyt-magazine-on-ai-resist-the-urge-to-be-impressed-3d92fd9a0edd El 15 de abril de 2022, Steven Johnson publicó un artículo en la revista New York Times titulado “A.I. es dominar el lenguaje. ¿Deberíamos confiar en lo que dice?” Sabía que iba a llegar este artículo porque me habían entrevistado por correo electrónico hace un par de semanas. Lo leí con cierta inquietud, porque tenía la sensación de que la pregunta y los objetivos de Johnson al incluir el artículo no mantenían el suficiente escepticismo sobre las afirmaciones de los refuerzos de IA. Al mismo tiempo, también estaba bastante seguro de que mis palabras no se sacarían de contexto porque un verificador de hechos se puso en contacto conmigo para verificar las citas que pretendían usar. Al leer el artículo, mis expectativas se cumplieron en ambos aspectos. Por lo general, cuando me encuentro con la exageración de la IA en la cobertura mediática de investigaciones/productos que afirman ser

LA DESCONEXIÓN ENTRE LA AUTOMATIZACIÓN "PREVIA" Y LA PROTECCIÓN JURÍDICA CONTRA LA TOMA DE DECISIONES AUTOMATIZADA

https://cyber.jotwell.com/the-disconnect-between-upstream-automation-and-legal-protection-against-automated-decision-making/ El Consejo Europeo de Protección de Datos (CEPD), que asesora sobre la interpretación del RGPD, ha determinado que el "derecho a no ser objeto" de decisiones automatizadas impactantes debe entenderse como una prohibición por defecto que no depende de que los interesados invoquen su derecho. Los responsables del tratamiento (los que determinan la finalidad y los medios del tratamiento de los datos personales) deben respetar la prohibición a menos que se aplique una de las tres excepciones. Éstas se refieren a (1) la necesidad de llevar a cabo dicha toma de decisiones para "la celebración o la ejecución de un contrato entre el interesado y un responsable del tratamiento", (2) la autorización por parte de "la legislación de la Unión o de los Estados miembros a la que está sujeto el responsable del tratamiento y que también establece medidas

Deja de llamar a todo IA

https://spectrum.ieee.org/amp/stop-calling-everything-ai-machinelearning-pioneer-says-2652904044 Señala que la imitación del pensamiento humano no es el único objetivo del aprendizaje automático -el campo de la ingeniería en el que se basan los recientes avances de la IA- ni siquiera el mejor objetivo. En cambio, el aprendizaje automático puede servir para aumentar la inteligencia humana, a través del análisis minucioso de grandes conjuntos de datos, del mismo modo que un motor de búsqueda aumenta el conocimiento humano organizando la web. El aprendizaje automático también puede proporcionar nuevos servicios a los humanos en ámbitos como la atención sanitaria, el comercio y el transporte, reuniendo información encontrada en múltiples conjuntos de datos, encontrando patrones y proponiendo nuevos cursos de acción. "La gente se confunde con el significado de la IA en las discusiones sobre las tendencias tecnológicas: que hay algún tipo de pensamiento inteligente en los ordenadores qu

En busca del ciudadano en la dataficación de la administración pública

https://journals.sagepub.com/doi/full/10.1177/20539517221089302 La reforma administrativa de la administración pública "datafied" pone un gran énfasis en la clasificación, el control y la predicción del comportamiento de los ciudadanos y, por tanto, tiene el potencial de impactar significativamente en las relaciones entre los ciudadanos y el Estado. Existe una creciente literatura sobre el activismo orientado a los datos que pretende resistir y contrarrestar las prácticas de datos perjudiciales existentes. Sin embargo, se sabe poco sobre los procesos, las políticas y las estructuras político-económicas que hacen posible la informatización. Existe un claro vacío en la investigación empírica situada y específica del contexto, que interroga críticamente las premisas, los intereses y las agendas de la administración pública orientada a los datos y cómo las partes interesadas pueden influir en ellos. Por lo tanto, este documento estudia las condiciones de participación en la infor

Por qué es tan difícil hacer que la IA sea justa e imparcial

https://www.vox.com/future-perfect/22916602/ai-bias-fairness-tradeoffs-artificial-intelligence El problema es que si hay una diferencia predecible entre dos grupos en promedio, entonces estas dos definiciones estarán en desacuerdo. Si diseñas tu motor de búsqueda para que haga predicciones estadísticamente imparciales sobre el desglose de género entre los directores generales, entonces será necesariamente tendencioso en el segundo sentido de la palabra. Y si lo diseña para que sus predicciones no se correlacionen con el género, será necesariamente tendencioso en el sentido estadístico.

AI & Sociedad

https://www.amacad.org/daedalus/ai-society La IA está transformando nuestras relaciones con la tecnología y con los demás, nuestros sentidos del yo, así como nuestros enfoques de la atención sanitaria, la banca, la democracia y los tribunales. Sin embargo, aunque la IA, en sus múltiples formas, se ha convertido en algo omnipresente y sus beneficios para la sociedad y el individuo han aumentado, sus impactos son variados. La preocupación por sus efectos no deseados y sus usos indebidos se ha convertido en algo primordial en las conversaciones sobre el éxito de la integración de la IA en la sociedad. Este volumen explora las múltiples facetas de la inteligencia artificial: su tecnología, sus futuros potenciales, sus efectos sobre el trabajo y la economía, su relación con las desigualdades, su papel en el derecho y la gobernanza, sus retos para la seguridad nacional y lo que dice de nosotros como humanos.

Repensar la IA para una buena gobernanza

https://www.amacad.org/publication/rethinking-ai-good-governance Este ensayo examina lo que la IA puede hacer por el gobierno, concretamente a través de tres herramientas genéricas en el corazón de la gobernanza: la detección, la predicción y la toma de decisiones basada en datos. Las funciones del sector público, como la asignación de recursos y la protección de los derechos, tienen una mayor carga normativa que las de las empresas, y la IA plantea mayores retos éticos que las anteriores generaciones de tecnología digital, amenazando la transparencia, la equidad y la responsabilidad. El ensayo analiza cómo podría desarrollarse la IA específicamente para el gobierno, con una ética digital pública para proteger estos valores. Tres medidas que podrían maximizar las posibilidades de transformación de la IA en el sector público son el desarrollo de la capacidad gubernamental para fomentar la innovación a través de la IA; la creación de modelos integrados y generalizados para la elaboración

El escándalo holandés sirve de advertencia para Europa sobre los riesgos del uso de algoritmos

https://www.politico.eu/article/dutch-scandal-serves-as-a-warning-for-europe-over-risks-of-using-algorithms/ Las autoridades sancionaban a las familias por una mera sospecha de fraude basada en los indicadores de riesgo del sistema. Decenas de miles de familias -a menudo con ingresos bajos o pertenecientes a minorías étnicas- se vieron abocadas a la pobreza por culpa de las exorbitantes deudas con la agencia tributaria. Algunas víctimas se suicidaron. Más de un millar de niños fueron acogidos en familias de acogida.  La Agencia Tributaria holandesa se enfrenta ahora a una nueva multa de 3,7 millones de euros impuesta por el regulador de la privacidad del país. En un comunicado publicado el 12 de abril, la agencia señala varias infracciones de la normativa de protección de datos de la UE, el Reglamento General de Protección de Datos, como no tener una base legal para procesar los datos de las personas y retener la información durante demasiado tiempo. Aleid Wolfsen, director de la autor

POR QUÉ LOS ÚLTIMOS 10 AÑOS DE LA VIDA AMERICANA HAN SIDO EXCEPCIONALMENTE ESTÚPIDOS

https://www.theatlantic.com/magazine/archive/2022/05/social-media-democracy-trust-babel/629369/ Los científicos sociales han identificado al menos tres fuerzas principales que unen a las democracias exitosas: el capital social (amplias redes sociales con altos niveles de confianza), instituciones fuertes e historias compartidas. Las redes sociales han debilitado las tres. Para ver cómo, debemos entender cómo han cambiado las redes sociales a lo largo del tiempo, y especialmente en los años posteriores a 2009. En sus primeras versiones, plataformas como Myspace y Facebook eran relativamente inofensivas. Permitían a los usuarios crear páginas en las que publicar fotos, actualizaciones familiares y enlaces a las páginas, en su mayoría estáticas, de sus amigos y grupos musicales favoritos. De este modo, las primeras redes sociales pueden considerarse un paso más en la larga progresión de mejoras tecnológicas -desde el servicio postal hasta el correo electrónico y los mensajes de texto, pas

Timnit Gebru está construyendo un movimiento Slow AI

https://spectrum.ieee.org/timnit-gebru-dair-ai-ethics Me pregunto sobre la IA para el bien social. No digo que no deba ocurrir, pero ¿por qué empezar con la IA? ¿Por qué no pensar en el bien que se quiere hacer y luego ver si la IA puede ser útil? A veces la gente habla de la IA para el cambio climático, pero si realmente se analiza el cambio climático, ¿no se está utilizando mucha IA para hacer más eficientes las industrias del petróleo y el gas? No digo que la IA para el bien social no deba existir. Pero creo que es un ejemplo de lo que decía Alex, donde la IA es el martillo. Y, por supuesto, la tecnología no debería utilizarse para la evaluación de riesgos, la criminalización de las personas, el control policial predictivo y el asesinato a distancia de personas y la facilitación de la entrada en la guerra. 

¿Cuál es la tecnología emergente más peligrosa?

https://gizmodo.com/whats-the-most-dangerous-emerging-technology-1847957403 Aquellos inclinados a pensar de forma apocalíptica saben que la tecnología, en su forma más pura, augura un desastre civilizatorio. Es cierto que tal vez nunca veamos un mundo lleno de violentos bebés hipertróficos CRISPR, y de incontrolables coches autodirigidos, y de IA decidida a convertir a los humanos en clips. Nuestro final acelerado por la tecnología, si es que llega, probablemente será un poco diferente y probablemente apestará de maneras que aún no podemos imaginar. Mientras tanto, sin embargo, vale la pena preguntarse: ¿cuál es la tecnología emergente más peligrosa? Para la edición de esta semana de Giz Asks, nos pusimos en contacto con una serie de expertos para averiguarlo. Zephyr Teachout Profesora asociada de Derecho, Universidad de Fordham Vigilancia privada en el lugar de trabajo. La vigilancia privada en el lugar de trabajo modifica la ya de por sí terrible dinámica de poder entre empleadores y

Vulnerabilidad, Confianza e IA

https://ironholds.org/vulnerability-trait/ En este documento, estamos elaborando una posición sobre las interrelaciones entre la vulnerabilidad, la confianza y la desconfianza en la investigación de la IA. La vulnerabilidad es un aspecto importante de la confianza porque es fundamental para entender las cuestiones de poder y dependencia que caracterizan muchas relaciones de confianza. Basándonos en la literatura, nuestro trabajo considera cómo se conceptualiza la vulnerabilidad en la investigación sobre la confianza en la IA de forma más amplia. Basándonos en las aportaciones de Annette Baier, ampliadas y desarrolladas recientemente por Gilson y Mackenzie, defendemos el tratamiento de la vulnerabilidad como una fuente potencial de cambio positivo en lugar de como un estado negativo de facto que debe evitarse. Ilustrando nuestro argumento con ejemplos de dentro y fuera de la literatura sobre la confianza en la IA, sugerimos algunas implicaciones de ver las relaciones de confianza como u

IA y manipulación: las cuestiones éticas

https://www.rathenau.nl/en/digital-governance/ai-and-manipulation-ethical-questions IA y manipulación: las cuestiones éticas¿Qué es la manipulación? Para poder debatir con conocimiento de causa sobre la IA manipuladora, primero tenemos que aclarar lo que supone la manipulación en sí misma. La manipulación es un término común en el lenguaje cotidiano, pero los filósofos tienen múltiples definiciones para ella. El filósofo dr. Michael Klenk, que trabaja en la Universidad Técnica de Delft, describe la manipulación de la siguiente manera: La manipulación es un tipo de influencia. Hay que distinguirla de la persuasión racional y la coacción. Se sitúa en un punto intermedio. La coerción elimina por completo la libertad de elección, la manipulación quizás la reduce un poco". El propio Klenk define la manipulación como "influencia negligente". Las buenas formas de influencia van acompañadas de un cierto cuidado por los motivos de la otra persona. La manipulación es negligente en

Demandas de AlgorithmWatch para mejorar la Ley de IA

https://algorithmwatch.org/en/algorithmwatch-demands-for-improving-the-ai-act/ Nuestras principales exigencias El contexto es importante. El enfoque actual de la Ley de designar ex ante los sistemas de IA a diferentes categorías de riesgo no tiene en cuenta que el nivel de riesgo también depende del contexto en el que se despliega un sistema y no puede determinarse completamente por adelantado. Por un lado, es necesario introducir mecanismos de actualización coherentes para todas las categorías de riesgo de la Ley de IA. Por otro lado, sólo podemos tener en cuenta el contexto de despliegue del sistema si sometemos a quienes los despliegan -los usuarios en la terminología de la Ley- a obligaciones más estrictas. Evaluación del impacto sobre los derechos fundamentales. Antes de poner en marcha un sistema de alto riesgo, su usuario debe estar obligado a realizar una evaluación de impacto sobre los derechos fundamentales para comprobar si el despliegue de ese sistema se ajusta a las normas

La IA se está explicando a los humanos. Y está dando sus frutos

https://www.google.com/url?q=https://www.reuters.com/technology/ai-is-explaining-itself-humans-its-paying-off-2022-04-06/&source=gmail&ust=1649857231063000&usg=AOvVaw15T4_KsJBsFzMfvxMl1rJH LinkedIn, de Microsoft Corp (MSFT.O), aumentó los ingresos por suscripciones en un 8% después de armar a su equipo de ventas con un software de inteligencia artificial que no sólo predice los clientes en riesgo de cancelación, sino que también explica cómo llegó a su conclusión. El sistema, presentado el pasado mes de julio y descrito el miércoles en un blog de LinkedIn, supone un gran avance para conseguir que la IA "muestre su trabajo" de forma útil. Aunque los científicos de la IA no tienen problemas para diseñar sistemas que hagan predicciones precisas sobre todo tipo de resultados empresariales, están descubriendo que para que esas herramientas sean más eficaces para los operadores humanos, la IA puede necesitar explicarse a través de otro algoritmo. El campo emergente de l

La gran apuesta de la humanidad por la inteligencia artificial

https://techpolicy.press/humanitys-big-bet-on-artificial-intelligence/ Cuando muchas personas -expertos incluidos- hablan de la Inteligencia Artificial (IA), a menudo hay algunas promesas bastante grandes codificadas en el lenguaje que eligen. Consideremos el lenguaje de una carta inicial del ex director general de Google, Eric Schmidt, y del ex subsecretario de Defensa, Bob Work, que presidió el informe de la Comisión de Seguridad Nacional sobre Inteligencia Artificial del año pasado: La IA es una tecnología inspiradora. Será la herramienta más poderosa en generaciones para beneficiar a la humanidad. Los científicos ya han logrado avances sorprendentes en campos que van desde la biología y la medicina hasta la astrofísica aprovechando la IA. Estos avances no son experimentos de feria de ciencias; están mejorando la vida y desvelando misterios del mundo natural. Son el tipo de descubrimientos para los que la etiqueta "cambio de juego" no es un cliché. Podría parecer que mucho

Un pionero del aprendizaje automático dice que hay que dejar de llamar a todo IA

https://spectrum.ieee.org/stop-calling-everything-ai-machinelearning-pioneer-says EL INSTITUTO Los sistemas de inteligencia artificial no están ni mucho menos lo suficientemente avanzados como para sustituir a los humanos en muchas tareas de razonamiento, conocimiento del mundo real e interacción social. Muestran una competencia de nivel humano en habilidades de reconocimiento de patrones de bajo nivel, pero a nivel cognitivo se limitan a imitar la inteligencia humana, sin comprometerse de forma profunda y creativa, afirma Michael I. Jordan, un destacado investigador en IA y aprendizaje automático. Jordan es profesor del departamento de ingeniería eléctrica y ciencias de la computación y del departamento de estadística de la Universidad de California en Berkeley. Señala que la imitación del pensamiento humano no es el único objetivo del aprendizaje automático -el campo de la ingeniería en el que se basan los recientes avances de la IA- ni siquiera el mejor objetivo. En cambio, el apren

El síntoma de la ética: Repensar la ética frente a la máquina

https://stars.library.ucf.edu/hmc/vol4/iss1/4/ Resumen Este ensayo sostiene que es la máquina la que constituye el síntoma de la ética - "síntoma" entendido como esa "parte que no tiene parte" excluida en el sistema de consideración moral. La ética, que se ha organizado históricamente en torno a un sujeto humano o, al menos, biológico, necesita de la máquina para definir la moral. la máquina para definir los límites propios de la comunidad moral, aunque al mismo tiempo excluya tales mecanismos. aunque al mismo tiempo excluya a esos mecanismos de cualquier pretensión seria de consideración moral. El argumento procederá en cinco pasos o movimientos. La primera parte definirá y caracterizará "el síntoma" tal y como ha sido operacionalizado en la obra del filósofo esloveno Slavoj Žižek. Aunque Žižek se apropia de este término de Jacques Lacan, desarrolla el concepto de una manera única que supera las formulaciones psicoanalíticas iniciales de Lacan. Las partes

«La promesa de Internet ha sido un fraude»

https://www.laverdad.es/sociedad/emilio-garcia-ruiz-promesa-internet-fraude-20220408184224-ntrc.html?ref=https%3A%2F%2Fwww.laverdad.es%2F -La promesa de Internet ha sido un fraude. Creíamos que la verdad sería como un río. Que la gran difusión de noticias libres, basadas en la verdad de los hechos, lograría un entendimiento común en todo el mundo. Lo que nadie vio es que los malos, los villanos, podrían dominar Internet con sus campañas de desinformación. Es lo que ha pasado ejemplo tras ejemplo. Se puede manipular una campaña política usando las mismas tácticas que usaba Hitler en Alemania. La propaganda siempre ha existido. Lo nuevo es que ahora puede ser más impactante, que es más fácil hacerla y que es gratis. No hay precio de entrada. Si tus intenciones son malas puedes hacer un daño increíble.

¿Quién quiere conceder derechos a los robots?

https://www.frontiersin.org/articles/10.3389/frobt.2021.781985/full El debate sobre los derechos de los robots se ha desarrollado hasta ahora sin datos fiables sobre la opinión pública acerca de los robots y los derechos que deberían tener. Hemos administrado una encuesta en línea (n = 439) que investiga las actitudes de los legos hacia la concesión de determinados derechos a los robots. Además, les hemos preguntado las razones por las que están dispuestos a concederles esos derechos. Por último, hemos administrado las percepciones generales de los robots en cuanto a apariencia, capacidades y rasgos. Los resultados muestran que los derechos pueden dividirse en dimensiones sociopolíticas y robóticas. Las razones pueden distinguirse en las dimensiones de cognición y compasión. En general, las personas tienen una opinión positiva sobre las capacidades de interacción de los robots. Descubrimos que la gente está más dispuesta a conceder derechos básicos a los robots, como el acceso a la ene

3 PRINCIPIOS QUE LOS LÍDERES DEBEN CONOCER SOBRE LA INTELIGENCIA ARTIFICIAL ÉTICA

https://www.bbntimes.com/companies/3-tenets-leaders-should-know-about-ethical-artificial-intelligence La inteligencia artificial (IA) ética se centra en los valores, principios y técnicas que promueven la conducta moral y el marco normativo, que benefician a la humanidad en su conjunto. También evita el uso malicioso de la tecnología de IA para profundizar las desigualdades y las divisiones. Es importante una hoja de ruta para confiar en la inteligencia artificial (IA). La falta de confianza es la razón por la que muchas empresas no han adoptado la IA en sus marcos empresariales. El miedo a lo desconocido es profundo -tal como lo sentí en Vatnajökull- y lo desconocido detrás de la tecnología es a menudo inmenso, repleto de posibilidades aterradoras. Sin embargo, cuando nos enfrentamos al cambio, nuestros puntos de vista tienen el potencial de ampliarse, inspirándonos a ser más compasivos y con visión de futuro. Esto, para mí, ha marcado el avance de la humanidad a lo largo de la histor

QUÉ EXPLICAR CUANDO EXPLICAR ES DIFÍCIL

https://graphite.page/explainable-ai-report/ La explicación de cómo los sistemas de toma de decisiones automatizada (ADM) toman decisiones (IA explicable, o XAI) puede considerarse una forma prometedora de mitigar sus efectos negativos. El GDPR de la UE proporciona un marco legal para explicar los sistemas ADM. Debe proporcionarse "información significativa sobre la lógica implicada". Sin embargo, ni el propio texto del RGPD ni los comentarios sobre el mismo proporcionan detalles sobre lo que es precisamente esto. Este informe aborda estos términos desde una perspectiva jurídica, técnica y de diseño. Desde el punto de vista legal, la explicación tiene que permitir al usuario recurrir la decisión tomada por el sistema ADM y equilibrar el poder del desarrollador de ADM con el del usuario. "La lógica" puede entenderse como "la estructura y la secuencia del tratamiento de datos". El GDPR se centra en los derechos individuales más que en los colectivos. Por lo

¿Puede un robot ser una persona? Desenmascarar la persona y reencontrarla con Lévinas

https://jmt.scholasticahq.com/article/34128-can-a-robot-be-a-person-de-facing-personhood-and-finding-it-again-with-levinas

La inteligencia artificial y el derecho internacional de los derechos humanos: Implicaciones para los seres humanos y la tecnología en el siglo XXI y más allá

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4072896 Las tecnologías emergentes y los movimientos mundiales de derechos no humanos suponen una prueba de resistencia para el corpus del derecho internacional de los derechos humanos (DIDH). Por un lado, las tecnologías se están implantando más rápido de lo que los responsables políticos pueden adoptar normas que protejan a los seres humanos de sus efectos potencialmente dañinos. Por otro lado, los movimientos de derechos no humanos están redefiniendo quién (o qué) tiene derecho al reconocimiento moral y jurídico. ¿Están los derechos, tal y como los concebimos actualmente, a la altura del reto de fomentar una sociedad justa a la luz de estos avances? El despliegue de los sistemas autónomos ha suscitado principalmente la preocupación por su impacto en los derechos civiles y políticos, como los relativos a la reunión, la libertad de expresión y la privacidad. Los informes sobre el uso de la inteligencia artificial (IA) para identifica

Explicabilidad (de la inteligencia artificial)

https://e-revistas.uc3m.es/index.php/EUNOM/article/view/6819/5372 La Inteligencia Artificial (IA) se ha convertido en uno de los ejes centrales de las estrategias de digitalización en la Unión Europea (UE). A pesar de sus grandes beneficios este grupo de tecnologías emergentes también presenta importantes riesgos y desafíos éticos que deben abordarse. Por ello, la UE ha propuesto cuatro principios éticos fundamentales para la IA: la justicia, el respeto por la  autonomía humana,  la previsión del daño  y  la  explicabilidad.  El concepto central de este trabajo es la explicabilidad de la IA (XAI). De este modo, además de poner en contexto la importancia de este principio ético, se abordarán los aspectos centrales en torno al mismo: qué es la explicabilidad; por qué son importantes las explicaciones (en el ámbito  de  la  IA);  cuándo  es  necesario  dar  explicaciones  y  de  qué  tipo  de  explicaciones disponemos para hacer comprender a la ciudadanía las decisiones tomadas por sistem

Los médicos recurren a la IA imperfecta para pasar más tiempo de calidad con los pacientes

https://www.protocol.com/enterprise/doctor-burnout-ai-patient-risk "La hora del pijama". Para la mayoría de nosotros, ese término connota la hora de acostarse de los niños, o de acurrucarse en el sofá. Para los médicos, la hora del pijama es sinónimo de deberes. De hecho, es una frase común que describe el ritual nocturno de terminar las notas clínicas sobre los pacientes que han visto ese día. A medida que aumentan las demandas de notas y datos para hacer una crónica de las interacciones con los pacientes por parte de la administración del hospital y los pagadores de la industria de seguros, la cantidad de tiempo que los médicos pasan en el ordenador ha apretado sus ya apretadas agendas. Un estudio de 2017 publicado en Annals of Family Medicine descubrió que los médicos de atención primaria pasan casi seis horas al día interactuando con sus sistemas de registros de salud electrónicos durante y después del horario de la clínica. En medio del agotamiento pandémico, el estrés e

Cómo su puntuación de crédito en la sombra podría decidir si consigue un apartamento

https://www.propublica.org/article/how-your-shadow-credit-score-could-decide-whether-you-get-an-apartment Kim Fuller necesitaba mudarse. Su madre, de 83 años, tenía dificultades para moverse por la estrecha casa de tres pisos que compartían en Baltimore. Los problemas cardíacos hacían que subir las escaleras fuera demasiado arduo, lo que alejaba a la anciana de la cocina, donde le encantaba cocinar. Fuller, de 57 años, encontró un complejo de apartamentos a 5 kilómetros de distancia que se anunciaba como "vida de lujo" para personas de 55 años o más, y solicitó una unidad a principios de 2021. Supuso que la aprobarían: Su salario como coordinadora de servicios de salud mental para el estado de Maryland cumplía los requisitos de ingresos. Nunca había sido desahuciada y había elevado su puntuación de crédito a 632 -lo que se considera justo- después de que una crisis de salud la obligara a declararse en quiebra ocho años antes. Sin embargo, unos meses más tarde, cuando entró en

Destrucción algorítmica

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4066845 La ley de privacidad contemporánea no va lo suficientemente lejos para proteger nuestros intereses de privacidad, particularmente en lo que respecta a la inteligencia artificial y el aprendizaje automático. Mientras que muchos han escrito sobre los problemas de sesgo o supresión algorítmica, este artículo introduce el novedoso concepto de la "sombra algorítmica", la huella persistente de los datos en un modelo de aprendizaje automático entrenado, y utiliza la sombra algorítmica como una lente a través de la cual ver los fracasos de la supresión de datos para hacer frente a las realidades del aprendizaje automático. Este artículo es también el primero en criticar de forma sustantiva el novedoso recurso de privacidad del degüelle algorítmico, también conocido como destrucción algorítmica.

Algoritmos para la toma de decisiones éticas en la clínica: Una prueba de concepto

https://www.tandfonline.com/doi/full/10.1080/15265161.2022.2040647 La inteligencia artificial ya ayuda al personal médico en una serie de tareas. Sin embargo, la toma de decisiones éticas no se ha dejado en manos de los ordenadores. En este estudio de prueba de concepto, mostramos cómo un algoritmo basado en los principios prima facie de Beauchamp y Childress podría emplearse para asesorar en una serie de situaciones de dilema moral que se dan en las instituciones médicas. Explicamos por qué elegimos los mapas cognitivos difusos para configurar el sistema de asesoramiento y cómo utilizamos el aprendizaje automático para entrenarlo. Informamos sobre la difícil tarea de hacer operativos los principios de beneficencia, no maleficencia y autonomía del paciente, y describimos cómo seleccionamos los parámetros de entrada adecuados que extrajimos de un conjunto de datos de entrenamiento de casos clínicos. Los primeros resultados de rendimiento son prometedores, pero un enfoque algorítmico de

No empieces por los datos: un enfoque centrado en las personas para abordar las desigualdades sanitarias

https://www.adalovelaceinstitute.org/blog/dont-start-with-the-data/ Los resultados demuestran que, si no se controlan, diferentes factores pueden aumentar la carga de mortalidad y morbilidad relacionada con la COVID que sufren los grupos vulnerables en ámbitos que van desde el exceso de mortalidad entre las personas de comunidades marginadas, el acceso digital limitado a las tecnologías y los sistemas mal diseñados, como los algoritmos que asignan fondos de forma desproporcionada a los grupos minoritarios, o los sistemas de control del oxígeno que funcionan con menos eficacia en la piel más oscura. Las desigualdades en materia de salud se entienden cada vez más como una cuestión de justicia social: desde el estudio del Observatorio de la Raza y la Salud, pasando por el trabajo del Instituto Ada Lovelace con la Fundación de la Salud sobre las desigualdades en los sistemas basados en datos, hasta el último estudio Marmot. Sin embargo, la forma de abordar las fuentes de desigualdad en un

Decisiones trágicas y la virtud de las lagunas de tecno-responsabilidad

https://link.springer.com/content/pdf/10.1007/s13347-022-00519-1.pdf Existe la preocupación de que el despliegue generalizado de máquinas autónomas abran una serie de "vacíos de responsabilidad" en toda la sociedad. A lo largo de los años se han propuesto varias articulaciones de estas brechas de tecno-responsabilidad se han propuesto a lo largo de los años, junto con varias soluciones potenciales. La mayoría de estas soluciones se centran en "tapar" o "disolver" las lagunas. Este artículo ofrece una perspectiva alternativa. En él se defiende que las lagunas de tecnorresponsabilidad son, a veces, bienvenidas y que una de las ventajas de las máquinas autónomas es que nos permiten aceptar ciertos tipos de vacíos de responsabilidad. El argumento se basa en la idea de que la moral humana es a menudo trágica. Nosotros A menudo nos enfrentamos a situaciones en las que las consideraciones morales que compiten entre sí tiran en diferentes direcciones y es imposibl

Las personas, el riesgo y los requisitos exclusivos de la IA

https://www.adalovelaceinstitute.org/policy-briefing/eu-ai-act/ El objetivo principal de este informe es ofrecer recomendaciones específicas a los responsables políticos de la UE para que introduzcan cambios en la versión final de la Ley de IA. Estas propuestas pretenden reforzar la legislación y reflejar mejor los objetivos de la UE descritos en la propuesta: regular las tecnologías de IA de forma que se ajusten a los valores de la UE y garantizar un entorno fértil para la innovación, al tiempo que se apoyan soluciones a algunas de las cuestiones más difíciles sobre la regulación de la IA.

El ABD de IA responsable

http://blog.practicalethics.ox.ac.uk/2022/03/the-abc-of-responsible-ai/ Por desgracia, no podemos dejar de lado las cuestiones de responsabilidad. Necesitamos claridad, o de lo contrario no podremos utilizar la IA de forma sostenible. La idea general sobre la sostenibilidad es la siguiente: se trata de cómo podemos satisfacer las necesidades que la gente tiene hoy sin frustrar las necesidades que existirán mañana. A menudo nos viene a la mente el medio ambiente: la sostenibilidad medioambiental se pregunta cómo podemos utilizar los recursos naturales para que nuestro planeta siga siendo un lugar habitable para las generaciones futuras. Pero la sostenibilidad también tiene una dimensión social: la sostenibilidad social pregunta cómo podemos crear estructuras sociales que no sólo satisfagan nuestros intereses hoy, sino que también ayuden a las personas a vivir una buena vida, a respetarse mutuamente y a disfrutar de la paz mañana. Las mayores amenazas para la sostenibilidad social son la