Entradas

Mostrando entradas de enero, 2022

Cómo detectar cuando los algoritmos se equivocan

https://link.springer.com/article/10.1007/s11023-022-09591-0 Los usuarios de los sistemas sociotécnicos no suelen tener forma de verificar de forma independiente si el resultado del sistema que utilizan para tomar decisiones es correcto; dependen epistémicamente del sistema. En nuestra opinión, esto provoca problemas cuando el sistema se equivoca, es decir, malas decisiones y violaciones de la norma de razonamiento práctico. Para evitar que esto ocurra, sugerimos que se implementen derrotas: información de que un sistema no es fiable en un caso específico (derrota de subestimación) o información independiente de que el resultado es erróneo (derrota de refutación). En la práctica, sugerimos que se diseñen los defeaters basándose en las diferentes formas en que un sistema puede producir resultados erróneos, y analizamos esta sugerencia con un estudio de caso del algoritmo de clasificación de riesgos utilizado por la agencia tributaria holandesa.

Las implicaciones psicológicas de los robots de compañía: Un marco teórico y un montaje experimental

https://link.springer.com/article/10.1007/s12369-021-00846-x   Resumen En este artículo presentamos un marco teórico para comprender el mecanismo psicológico subyacente en las interacciones entre humanos y robots de compañía. Al principio, tomamos el caso de la Robótica Sexual, donde la dinámica psicológica es más evidente, para después extender la discusión a la Robótica de Compañía en general. En primer lugar, analizamos las diferencias entre un juguete sexual y un Robot Sexual, concluyendo que este último puede establecer una dinámica colusoria y confirmatoria con el usuario. Afirmamos que la colusividad conduce a dos consecuencias principales, como la fijación en un tipo específico y atípico de interacción sexual, llamado parafílico, y a la infantilización del usuario, que explicamos a través del marco teórico de la "teoría de la relación con el objeto". Argumentamos que estas dinámicas pueden degradar hasta un estadio infantil las capacidades relacionales de los usuarios

IA amplia y superficial

https://www.theindiaforum.in/article/broad-and-shallow-ai Cuando mi hijo era todavía un niño pequeño, y mi mujer tenía que hacer un viaje largo fuera del país, él "hablaba" con ella por teléfono casi a diario. Comillas de miedo porque todavía balbuceaba más que hablaba. Pero lo impresionante era que su imitación de la sintaxis de nosotros hablando por teléfono era impecable, repleta de las significativas pausas, los expansivos gestos con las manos y el caminar mientras hablaba por teléfono, etc. Esta inteligencia imitativa no fue ciertamente su primera hazaña impresionante; para entonces ya había dominado muchas otras habilidades perceptivas y motoras no verbales, todas ellas mediante un importante proceso de ensayo y error en su copioso tiempo libre. Aunque estas otras capacidades son posiblemente más impresionantes, fueron sus imitaciones del comportamiento de los adultos que le rodeaban las que sus cariñosos padres encontraron especialmente adorables. Hasta hace poco, gran

6 características del algoritmo ideal de inteligencia artificial sanitaria

https://healthexec.com/topics/ai-emerging-tech/6-featuresideal-healthcare-ai "Los pacientes y los médicos se enfrentan a tareas de toma de decisiones clínicas compartidas mientras están bajo restricciones de tiempo y altas cargas cognitivas por los altos volúmenes de información", explicaron los autores. "Con este fin, proponemos un marco para los algoritmos ideales que consta de seis datos deseados", añadieron después. Para que un algoritmo funcione clínicamente, deben ser: 1. Explicables: Muchos algoritmos son incapaces de "mostrar su trabajo", lo que se conoce como el problema de la caja negra. Pero las herramientas de calidad deben aclarar los rasgos de un paciente y su condición médica al hacer un diagnóstico. Separar la asociación de la causalidad también es crucial. 2. Dinámica: Las herramientas digitales deben captar y ajustarse a los pacientes en tiempo real. Por ejemplo, la presión de perfusión intracraneal y cerebral puede cambiar rápidamente tr

Poner en práctica la ética de la IA: ¿son las herramientas adecuadas para el propósito? Noviembre

https://montrealethics.ai/putting-ai-ethics-to-work-are-the-tools-fit-for-purpose/ Este documento traza el panorama de las herramientas de ética de la IA: Desarrolla una tipología para clasificar las herramientas de ética de la IA y analiza las existentes. Además, el documento identifica dos lagunas. En primer lugar, las principales partes interesadas, incluidos los miembros de las comunidades marginadas, no participan suficientemente en el uso de las herramientas de ética de la IA y sus resultados. En segundo lugar, faltan herramientas de auditoría externa en materia de ética de la IA, lo que supone un obstáculo para la rendición de cuentas y la fiabilidad de las organizaciones que desarrollan sistemas de IA.

La carrera por entender el estimulante y peligroso mundo de la IA del lenguaje

https://www.technologyreview.com/2021/05/20/1025135/ai-large-language-models-bigscience-project/ Para empezar, Google planea integrar LaMDA en su portal de búsqueda principal, su asistente de voz y Workplace, su colección de software de trabajo en la nube que incluye Gmail, Docs y Drive. Pero el objetivo final, dijo Pichai, es crear una interfaz conversacional que permita a los usuarios recuperar cualquier tipo de información -texto, visual, audio- en todos los productos de Google con sólo pedirla. El lanzamiento de LaMDA es una muestra más de cómo las tecnologías del lenguaje se están integrando en nuestra vida cotidiana. Pero la llamativa presentación de Google oculta el debate ético que rodea ahora a estos sistemas de vanguardia. LaMDA es lo que se conoce como un gran modelo lingüístico (LLM), un algoritmo de aprendizaje profundo entrenado con enormes cantidades de datos de texto. Los estudios ya han demostrado cómo las ideas racistas, sexistas y abusivas están incrustadas en estos

Confiar en la inteligencia artificial en ciberseguridad es un arma de doble filo

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3831285 Las aplicaciones de la inteligencia artificial (IA) para tareas de ciberseguridad están atrayendo una mayor atención de los sectores privado y público. Las estimaciones indican que el mercado de la IA en ciberseguridad crecerá de 1.000 millones de dólares en 2016 a un valor neto de 34.800 millones de dólares en 2025. Las últimas estrategias nacionales de ciberseguridad y defensa de varios gobiernos mencionan explícitamente las capacidades de la IA. Al mismo tiempo, están surgiendo a escala mundial iniciativas para definir nuevas normas y procedimientos de certificación para suscitar la confianza de los usuarios en la IA. Sin embargo, la confianza en la IA (tanto en el aprendizaje automático como en las redes neuronales) para realizar tareas de ciberseguridad es un arma de doble filo: puede mejorar sustancialmente las prácticas de ciberseguridad, pero también puede facilitar nuevas formas de ataque a las propias aplicaciones de

CÓMO SE PUEDEN UTILIZAR LOS DATOS CONTRA LAS PERSONAS: UNA CLASIFICACIÓN DE LOS USOS INDEBIDOS DE LOS DATOS PERSONALES

https://deliverypdf.ssrn.com/delivery.php?ID=561029122115113118025100088015067085025024069039034031127020092068083118095080069102017000125011012022037010115115073070113068111037074093092109104067066013122007107039087066024081069065010119007070066099109118091007071107007123073086106064008091107114&EXT=pdf&INDEX=TRUE Incluso después de décadas de intensa investigación y debates públicos, el tema de la privacidad de los datos sigue rodeado de confusión y desinformación. Mucha gente todavía tiene dificultades para comprender la importancia de la privacidad, que tiene consecuencias de gran alcance para las normas sociales, la jurisprudencia y la legislación. Los debates sobre el uso indebido de los datos personales suelen girar en torno a unos pocos temas de conversación populares, como la publicidad dirigida o la vigilancia gubernamental, lo que conduce a una visión demasiado limitada del problema. La literatura en este campo tiende a centrarse en aspectos específicos, como las ame

Una herramienta destinada a ayudar a los presos federales de bajo riesgo a obtener la libertad anticipada adolece de algunos fallos

https://www.npr.org/2022/01/26/1075509175/justice-department-algorithm-first-step-act Miles de personas saldrán de la prisión federal este mes gracias a una ley llamada First Step Act, que les permitía obtener la libertad anticipada participando en programas destinados a facilitar su regreso a la sociedad. Pero otros miles pueden seguir entre rejas debido a defectos fundamentales en el método del Departamento de Justicia para decidir quién puede acogerse a la libertad anticipada. El mayor defecto: las persistentes disparidades raciales que ponen en desventaja a los negros y morenos. En un informe publicado días antes de las Navidades de 2021, el departamento dijo que su herramienta algorítmica para evaluar el riesgo de que una persona en prisión vuelva a delinquir produjo resultados desiguales. El algoritmo, conocido como Pattern, sobreestimó el riesgo de que muchas personas negras, hispanas y asiáticas cometieran nuevos delitos o violaran las normas tras salir de prisión. Al mismo tie

La IA responsable le dará una ventaja competitiva

https://venturebeat.com/2022/01/15/responsible-ai-will-give-you-a-competitive-advantage/ No cabe duda de que la IA está cambiando el panorama empresarial y proporcionando ventajas competitivas a quienes la adoptan. Sin embargo, ha llegado el momento de ir más allá de la simple implementación de la IA y de garantizar que ésta se realiza de forma segura y ética. Esto se denomina IA responsable y servirá no sólo como protección contra las consecuencias negativas, sino también como ventaja competitiva en sí misma. ¿Qué es la IA responsable? La IA responsable es un marco de gobernanza que abarca aspectos éticos, legales, de seguridad, de privacidad y de responsabilidad. Aunque la aplicación de la IA responsable varía según la empresa, su necesidad es evidente. Sin prácticas de IA responsable, una empresa se expone a graves riesgos financieros, de reputación y legales. En el lado positivo, las prácticas de IA responsable se están convirtiendo en requisitos previos incluso para licitar en cie

¿Debe cualquiera recibir las llaves de la máquina de IA? Por qué las herramientas de IA de bajo código plantean nuevos riesgos.

https://www.protocol.com/enterprise/no-low-code-ai-risks#toggle-gdpr "No hay código. Sin bromas". Esta es la promesa hecha por la empresa de IA empresarial C3 AI en anuncios web espléndidos para su software Ex Machina. Su competidor Dataiku dice que su propio software de bajo código y sin código "eleva" a los expertos empresariales a utilizar la IA. DataRobot llama "héroes de la IA" a los clientes que utilizan su software sin código para crear aplicaciones basadas en la IA. Se encuentran entre un grupo creciente de empresas tecnológicas que declaran que los días de la IA elitista han terminado. Afirman que, con un software que requiere poca o ninguna codificación, incluso el humilde asociado de marketing -ahora el "científico de datos ciudadano"- tiene el poder de crear y utilizar algoritmos de aprendizaje automático alimentados por datos. Esto, dicen, es "democratizar la IA". Las herramientas de IA de bajo y ningún código se basan en i

Ayer una vez más

https://reallifemag.com/yesterday-once-more/ En 2012, Joan Serrà y un equipo de científicos del Instituto de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Científicas confirmaron algo que muchos habían llegado a sospechar: que la música era cada vez más igual. El equipo descubrió que la variedad tímbrica de la música pop había disminuido desde la década de 1960, tras utilizar la analítica informática para desglosar casi medio millón de canciones grabadas por volumen, tono y timbre, entre otras variables. Esta convergencia sugería que había una cualidad subyacente de consumibilidad hacia la que gravitaba la música pop: una fórmula de viralidad musical. Estos descubrimientos marcaron un hito en la industria del descubrimiento musical, un esfuerzo multimillonario por generar metadatos descriptivos de las canciones mediante inteligencia artificial para que los algoritmos puedan recomendarlas a los oyentes. A principios de la década de 2010, la principal e

Responsabilidad difusa: atribuciones de responsabilidad en el uso de sistemas de apoyo a la decisión clínica impulsados por la IA

https://link.springer.com/article/10.1007/s43681-022-00135-x La toma de decisiones es una tarea compleja, especialmente en el contexto sanitario. Las posibilidades que abren los sistemas de apoyo a la toma de decisiones clínicas impulsados por la IA (AI-CDSS) en la práctica clínica cotidiana plantean cuestiones fundamentales en torno a la responsabilidad. En términos causales, morales y jurídicos, la aplicación de los sistemas de apoyo a la toma de decisiones clínicas basados en la IA pone en tela de juicio las atribuciones de responsabilidad existentes. En este contexto, los vacíos de responsabilidad se identifican a menudo como el principal problema. En este artículo, que describe la dinámica cambiante y los niveles de atribución de responsabilidad, sostenemos que la aplicación de la IA-CDSS provoca una difusión de la responsabilidad con respecto a la dimensión causal, moral y jurídica. La difusión de la responsabilidad describe la situación en la que se pueden considerar múltiples o

Por qué la IA necesita la intervención humana

https://artificialintelligence-news.com/2022/01/19/why-ai-needs-human-intervention/ En el ajustado mercado laboral y el entorno de trabajo híbrido de hoy en día, las organizaciones recurren cada vez más a la IA para apoyar diversas funciones dentro de su negocio, desde ofrecer experiencias más personalizadas hasta mejorar las operaciones y la productividad, pasando por ayudar a las organizaciones a tomar decisiones mejores y más rápidas. Por eso se espera que el mercado mundial de software, hardware y servicios de IA supere los 500.000 millones de dólares en 2024, según IDC. Sin embargo, muchas empresas no están preparadas para que sus sistemas de IA funcionen de forma independiente y sin intervención humana, ni deberían hacerlo.  En muchos casos, las empresas simplemente no tienen suficiente experiencia en los sistemas que utilizan, ya que las tecnologías de IA son extraordinariamente complejas. En otros casos, la IA rudimentaria está integrada en el software de la empresa. Estos pued

¿Podemos saber si los modelos de IA de aprendizaje automático funcionan correctamente?

https://scitechdaily.com/can-we-tell-if-machine-learning-ai-models-are-working-correctly/ Imagine que un equipo de médicos utiliza una red neuronal para detectar el cáncer en las imágenes de las mamografías. Aunque este modelo de aprendizaje automático parece funcionar bien, podría estar centrándose en características de la imagen que se correlacionan accidentalmente con los tumores, como una marca de agua o una marca de tiempo, en lugar de los signos reales de los tumores. Para poner a prueba estos modelos, los investigadores utilizan "métodos de atribución de características", técnicas que supuestamente les indican qué partes de la imagen son las más importantes para la predicción de la red neuronal. ¿Pero qué ocurre si el método de atribución pasa por alto características que son importantes para el modelo? Como los investigadores no saben qué características son importantes, no tienen forma de saber si su método de evaluación no es eficaz. Para ayudar a resolver este prob

El sesgo de la IA perjudica a más de un tercio de las empresas, el 81% quiere más regulación

https://artificialintelligence-news.com/2022/01/20/ai-bias-harms-over-a-third-of-businesses-81-want-more-regulation/ El sesgo de la IA ya está perjudicando a las empresas y hay un gran interés por una mayor regulación que ayude a contrarrestar el problema. Las conclusiones proceden del informe State of AI Bias, elaborado por DataRobot en colaboración con el Foro Económico Mundial y líderes académicos mundiales. En el informe participaron más de 350 organizaciones de todos los sectores. Kay Firth-Butterfield, responsable de IA y aprendizaje automático en el Foro Económico Mundial, dijo:  "La investigación de DataRobot muestra lo que muchos en el campo de la inteligencia artificial saben desde hace tiempo que es cierto: la línea de lo que es y no es ético cuando se trata de soluciones de IA ha sido demasiado borrosa durante demasiado tiempo. Los CIOs, directores y gerentes de TI, científicos de datos y líderes de desarrollo encuestados en esta investigación entienden y aprecian clar

Por qué es tan difícil regular los algoritmos

https://themarkup.org/news/2022/01/04/why-its-so-hard-to-regulate-algorithms En 2018, el Ayuntamiento de Nueva York creó un grupo de trabajo para estudiar el uso que la ciudad hace de los sistemas de decisión automatizados (ADS). La preocupación: Los algoritmos, no solo en Nueva York sino en todo el país, estaban siendo empleados cada vez más por las agencias gubernamentales para hacer de todo, desde informar las sentencias penales y detectar el fraude en el desempleo hasta priorizar los casos de abuso infantil y distribuir los beneficios de salud. Y los legisladores, por no hablar de las personas gobernadas por las decisiones automatizadas, sabían muy poco sobre cómo se hacían los cálculos.  Las escasas visiones de cómo funcionaban estos algoritmos no eran reconfortantes: En varios estados, los algoritmos utilizados para determinar la cantidad de ayuda que recibirán los residentes por parte de los asistentes sanitarios a domicilio han recortado automáticamente las prestaciones a miles

No, los grandes modelos lingüísticos no son como los discapacitados (y es problemático argumentar que lo son)

https://medium.com/@emilymenonbender/no-llms-arent-like-people-with-disabilities-and-it-s-problematic-to-argue-that-they-are-a2ac0df0e435 Hay una tendencia que he observado en las personas que intentan argumentar que los modelos lingüísticos "entienden" el lenguaje para establecer analogías con la experiencia de las personas discapacitadas (especialmente los ciegos y sordociegos). Estas analogías son falsas y deshumanizadoras. Una reciente entrada en el blog de un vicepresidente de Google ofrece una versión especialmente elaborada de esto. En esta entrada, expongo por qué y cómo es problemático con el objetivo de ayudar a los lectores a detectar y resistir esta argumentación dañina y errónea. Introducción En una entrada del blog del pasado mes de diciembre, Blaise Agüera y Arcas se pregunta "¿Nos entienden los grandes modelos lingüísticos?". El post en su conjunto se lee como un artículo de promoción del sistema LaMDA de Google (también demostrado en GoogleIO 2021),

3 PRINCIPIOS QUE LOS LÍDERES DEBEN CONOCER SOBRE LA INTELIGENCIA ARTIFICIAL ÉTICA

https://www.bbntimes.com/companies/3-tenets-leaders-should-know-about-ethical-artificial-intelligence Es importante una hoja de ruta para confiar en la inteligencia artificial (IA). La falta de confianza es la razón por la que muchas empresas no han adoptado la IA en sus marcos empresariales. El miedo a lo desconocido es profundo -tal como lo sentí en Vatnajökull- y lo desconocido detrás de la tecnología es a menudo inmenso, repleto de posibilidades aterradoras. Sin embargo, cuando nos enfrentamos al cambio, nuestros puntos de vista tienen el potencial de ampliarse, inspirándonos a ser más compasivos y con visión de futuro. Esto, para mí, ha marcado el avance de la humanidad a lo largo de la historia. Las posibilidades de que la IA mejore nuestras vidas son infinitas, especialmente si estamos abiertos a crear un impacto. Podemos confiar en la IA tanto como en nosotros mismos. Tenemos el privilegio de hacer una tecnología que refleje lo mejor de nuestra humanidad. El próximo siglo verá

Cómo regular la Inteligencia Artificial de forma correcta: Estado de la IA y cuestiones éticas

  https://www.bbntimes.com/technology/how-to-regulate-artificial-intelligence-the-right-way-state-of-ai-and-ethical-issues Una inteligencia artificial digna de confianza debe respetar todas las leyes y reglamentos aplicables, así como una serie de requisitos; las listas de evaluación específicas pretenden ayudar a verificar la aplicación de cada uno de los requisitos clave: Agencia y supervisión humanas: Los sistemas de IA deben permitir sociedades equitativas apoyando la agencia humana y los derechos fundamentales, y no disminuir, limitar o guiar erróneamente la autonomía humana. Robustez y seguridad: Una IA digna de confianza requiere que los algoritmos sean seguros, fiables y lo suficientemente robustos como para hacer frente a errores o incoherencias durante todas las fases del ciclo de vida de los sistemas de IA. Privacidad y gobernanza de los datos: Los ciudadanos deben tener pleno control sobre sus propios datos, mientras que los datos que les conciernen no se utilizarán para pe

¿Puede la gente experimentar amor romántico por la inteligencia artificial? Un estudio empírico sobre los asistentes inteligentes

https://www.sciencedirect.com/science/article/abs/pii/S0378720622000076 Junto con el desarrollo de la inteligencia artificial (IA), se están creando más aplicaciones informáticas basadas en ella. Un asistente personal inteligente es una aplicación de IA que proporciona información, educación, asesoramiento o entretenimiento a los usuarios. Debido a sus altos niveles de capacidades cognitivas y emocionales, suponemos que los usuarios pueden formar relaciones similares a las humanas con los asistentes inteligentes, por lo que desarrollamos un modelo de investigación basado en la teoría del amor. Se recogieron datos de usuarios de asistentes inteligentes mediante una encuesta. Los resultados indican que los usuarios pueden desarrollar una intimidad y una pasión por una aplicación de IA similares a las experimentadas con los seres humanos. Estos sentimientos están relacionados con el compromiso de los usuarios, promoviendo el uso de un asistente inteligente, influenciado por los factores d

Confiar en la IA en medicina

https://www.ku.de/en/news/trusting-in-ai-in-medicine Las tareas monótonas consumen mucho tiempo y cansan al ser humano. El hecho de que médicos experimentados evalúen docenas de mamografías puede tener el efecto secundario no deseado de que se pasen por alto detalles pequeños pero relevantes para el diagnóstico. La aplicación de la IA en este campo puede aliviar a los humanos de esta carga y liberar su capacidad de decisión. "Esto se basa en el supuesto de que los expertos humanos deben ser capaces de confiar en el sistema de IA. Esta confianza, sin embargo, puede llevar al médico a no reevaluar críticamente la decisión de la IA", afirma el Prof. Dr. Marc Aubreville. Incluso los sistemas que se utilizan habitualmente en el ámbito médico no son infalibles. Al fin y al cabo, esa es la razón por la que en todos los procedimientos los humanos deben ser la última autoridad en la cadena de toma de decisiones. Fritz Prof. Dr. Alexis Fritz, titular de la Cátedra de Teología Moral de

Ética y equidad en la IA: ¿quién dicta las normas?

https://www.carnegieaie.org/blog/ethics-and-fairness-in-ai-who-makes-the-rules/ Aunque está claro que los sistemas de inteligencia artificial (IA) ofrecen oportunidades en diversos ámbitos y contextos, aún no se ha alcanzado lo que equivale a una perspectiva responsable sobre su ética y gobernanza, y hasta la fecha son pocas las iniciativas que han logrado un impacto real en la modulación de sus efectos. Los sistemas de IA y las tecnologías algorítmicas se están integrando y ampliando mucho más rápidamente que la madurez de la tecnología que los sustenta actualmente, y los marcos de gobernanza existentes siguen evolucionando. ¿Por qué no lo estamos haciendo bien? Permítanme compartir algunas reflexiones selectas y desmentir algunos mitos - y dejarles con algunas preguntas para hacer a medida que el impacto de los sistemas basados en la IA está impregnando nuestras vidas: Primero: Con demasiada frecuencia el debate sobre la IA se presenta como si la tecnología evolucionara por su propia

Reconsiderar el trabajo digital: introducir a los trabajadores tecnológicos en el debate

https://onlinelibrary.wiley.com/doi/full/10.1111/ntwe.12225 El debate sobre el trabajo digital ha dado lugar a múltiples reflexiones sobre las nuevas formas de trabajo que surgen en el capitalismo digital. Hasta ahora, sin embargo, la mayoría de las investigaciones se han centrado en los trabajadores altamente precarios, dejando de lado las crecientes filas de los "trabajadores tecnológicos" acomodados. Yo sostengo que este descuido analítico puede atribuirse a una estrecha conceptualización del trabajo digital. Por ello, este artículo propone en primer lugar una ampliación del concepto de trabajo digital para abarcar todo el trabajo relacionado con la economía digital. En un segundo paso, demuestro el superávit heurístico de esta ampliación teórica mediante un análisis de la literatura empírica sobre los trabajadores tecnológicos. Al introducir a los trabajadores tecnológicos en el debate, señalo las relaciones culturales, tecnológicas y organizativas entre los trabajadores

IA: utilizar la confianza y la ética para acelerar la adopción

https://www.ukri.org/blog/ai-using-trust-and-ethics-to-accelerate-adoption/ Gracias a los últimos avances en el aprendizaje automático, el big data y la potencia de cálculo, se acepta ampliamente que la inteligencia artificial (IA) tiene el potencial de transformar todas las industrias y de superar los mayores retos a los que se enfrenta la sociedad. La IA puede suponer una revolución en los asuntos humanos y convertirse en la innovación más influyente de la historia. Como ocurre con muchos avances tecnológicos, el progreso de las tecnologías de IA ha ido más rápido que la sociedad. Necesitamos comprender mejor cómo la IA transforma nuestras sociedades, quiénes son los más afectados, por qué y las consecuencias. Las ciencias sociales y del comportamiento serán cruciales para dar sentido a estos cambios y ayudarnos a navegar por ellos. Nos aclararán las decisiones que deben tomar las sociedades al trazar un futuro en el que la IA está prácticamente en todas partes. Aprendizaje profundo

Estamos fallando en la ética de la IA. Así es como conseguimos un impacto real

https://www.weforum.org/agenda/2022/01/we-re-failing-at-the-ethics-of-ai-here-s-why/ En los últimos años ha surgido una oleada de principios y orientaciones para apoyar el desarrollo y el uso responsable de la IA, sin que se hayan producido cambios significativos. Para lograr un impacto, debemos profundizar en tres cuestiones principales: 1. Ampliar los diálogos existentes en torno a la ética y las normas de circulación de la IA. La conversación sobre la IA y la ética debe abrirse de par en par para comprender las sutilezas y el ciclo de vida de los sistemas de IA y sus impactos en cada etapa. Con demasiada frecuencia, estas conversaciones carecen de un alcance suficiente y se centran únicamente en las etapas de desarrollo y despliegue del ciclo de vida, aunque muchos de los problemas se producen durante las primeras etapas de conceptualización, investigación y diseño. O bien, no comprenden cuándo y si un sistema de IA funcionará en la fase de madurez necesaria para evitar el fracaso d

Gemelos digitales, cerebros virtuales y los peligros del lenguaje

https://ethicsblog.crb.uu.se/2022/01/18/digital-twins-virtual-brains-and-the-dangers-of-language/ Se ha empezado a introducir una nueva tecnología de simulación por ordenador, por ejemplo, en la industria manufacturera. La simulación por ordenador se llama gemelo digital, lo que me reta a dar vida al lector a lo que algo que suena tan imaginativo puede ser en realidad. La explicación más realista que puedo encontrar proviene del mundo de Harry Potter. ¿Recuerdan el mapa de Hogwarts, que no sólo muestra todas las habitaciones y pasillos, sino también los pasos en tiempo real de quienes se escabullen por la escuela? Un mapa similar puede crearse fácilmente en un entorno informático conectando el mapa en el ordenador con sensores en el suelo del edificio que representa el mapa. Inmediatamente se tiene un mapa digital interactivo del edificio que se actualiza automáticamente y muestra los movimientos de la gente en él. Imaginemos además que la simulación informática puede hacer cálculos qu

Acciones y experiencias en las alianzas hombre-máquina

https://www.researchgate.net/publication/357777644_Actions_and_Experiences_in_Human-machine_Alliances SætraIntroducciónLas máquinas en forma de robots avanzados con funcionalidad social son hoy en día, en muchos aspectos, indistinguibles de nuestros congéneres, tanto por su forma de interactuar con nosotros como por su aspecto. Robots como Sophia (Parviainen & Coeckelbergh, ), por ejemplo, demuestran que los robots se están pareciendo a los humanos, y el modelo de lenguaje a gran escala GTP- ha impresionado por su capacidad de imitar la comunicación humana (Floridi & Chiriatti, ). Ahora interactuamos con las máquinas de mil maneras, y algunas de ellas implican un compromiso a un nivel que antes estaba reservado a otros seres humanos y a nuestras mascotas más preciadas. Jugamos con las máquinas, trabajamos con ellas, buscamos consuelo en las máquinas y algunos incluso hacen el amor con ellas (Danaher, ; Levy, ; Marti, ; Nyholm & Smids, ; Sætra, b).En este capítulo se examina

Persona jurídica para la integración de los sistemas de IA en el contexto social: una hipótesis de estudio

https://link.springer.com/article/10.1007%2Fs00146-021-01384-w En este artículo, expondré los pros y los contras de la atribución de personalidad jurídica a los sistemas de inteligencia artificial (IA) en el marco del Derecho civil. Más concretamente, expondré los argumentos que apoyan una justificación funcionalista para conferir la condición de persona a las IA, y trataré de identificar el contenido que podría tener este estatus jurídico desde una perspectiva normativa. Ser persona en derecho implica el derecho a una o varias posiciones jurídicas. Me centraré principalmente en la responsabilidad, ya que es uno de los principales motivos para la atribución de la condición de persona jurídica, al igual que para las entidades jurídicas colectivas. Una mejor distribución de las responsabilidades resultantes de un comportamiento imprevisiblemente ilegal y/o perjudicial puede ser una de las principales razones para justificar la atribución de personalidad también para los sistemas de IA. E

Análisis de los "Principios de gobernanza de la Inteligencia Artificial: hacia una inteligencia artificial ética y digna de confianza en el sector asegurador europeo"

https://montrealethics.ai/analysis-of-the-artificial-intelligence-governance-principles-towards-ethical-and-trustworthy-artificial-intelligence-in-the-european-insurance-sector/ Tras el Libro Blanco sobre Inteligencia Artificial de 2020 y la Propuesta de un nuevo reglamento sobre IA de 21 de abril de 2021 publicada por la Comisión Europea en abril de 2021, la Autoridad Europea de Seguros y Pensiones de Jubilación ("EIOPA") publicó, el 18 de junio de 2021, un informe hacia una inteligencia artificial ética y fiable en el sector de los seguros europeo. Se trata de la primera regulación comunitaria de la IA en el sector de los seguros. El informe es el resultado del intenso trabajo del Grupo Consultivo de Expertos de EIOPA sobre Ética Digital en los seguros. El documento tiene como objetivo, en particular, ayudar a las compañías de seguros cuando implementan aplicaciones/sistemas de IA. Las medidas propuestas en este documento están basadas en el riesgo y cubren todo el ciclo de

El sesgo no es el único problema de las puntuaciones de crédito, y no, la IA no puede ayudar

https://www.technologyreview.com/2021/06/17/1026519/racial-bias-noisy-data-credit-scores-mortgage-loans-fairness-machine-learning/ Ya sabíamos que los datos y los algoritmos sesgados sesgan la toma de decisiones automatizada de una manera que perjudica a los grupos minoritarios y de bajos ingresos. Por ejemplo, el software utilizado por los bancos para predecir si alguien va a pagar o no la deuda de la tarjeta de crédito suele favorecer a los solicitantes blancos más ricos. Muchos investigadores y una serie de empresas emergentes están tratando de solucionar el problema haciendo que estos algoritmos sean más justos.   Historia relacionada La próxima guerra contra los algoritmos ocultos que atrapan a la gente en la pobreza Un grupo cada vez mayor de abogados está descubriendo, navegando y luchando contra los sistemas automatizados que niegan a los pobres vivienda, trabajo y servicios básicos. Pero en el mayor estudio jamás realizado sobre datos hipotecarios del mundo real, los economist