Entradas

Mostrando las entradas etiquetadas como Responsabilidad Accountability Liability

Responsabilidad difusa: atribuciones de responsabilidad en el uso de sistemas de apoyo a la decisión clínica impulsados por la IA

https://link.springer.com/article/10.1007/s43681-022-00135-x   La toma de decisiones es una tarea compleja, especialmente en el contexto sanitario. Las posibilidades que abren los sistemas de apoyo a la toma de decisiones clínicas impulsados por la IA (AI-CDSS) en la práctica clínica diaria dan lugar a cuestiones fundamentales en torno a la responsabilidad. En términos causales, morales y jurídicos, la aplicación de los sistemas de apoyo a la toma de decisiones clínicas basados en la IA pone en tela de juicio las atribuciones de responsabilidad existentes. En este contexto, los vacíos de responsabilidad se identifican a menudo como el principal problema. En este artículo, que describe la dinámica cambiante y los niveles de atribución de responsabilidad, sostenemos que la aplicación de la IA-CDSS provoca una difusión de la responsabilidad con respecto a la dimensión causal, moral y jurídica. La difusión de la responsabilidad describe la situación en la que se pueden considerar múlti...

La nueva norma de transparencia de la IA del Reino Unido es un paso más hacia una IA responsable

https://venturebeat.com/2021/12/08/the-u-k-s-new-ai-transparency-standard-is-a-step-closer-to-accountable-ai/ El gobierno británico anunció la semana pasada una nueva norma de transparencia algorítmica. La medida llega tras un año en el que el programa Test and Trace del Reino Unido podía hacer un ping a tu teléfono en cualquier momento y cancelar tus planes de fin de semana, y cuando los estudiantes salieron a la calle coreando "¡Fuera el algoritmo!" después de que se cancelaran los exámenes y sus admisiones en la universidad fueran decididas por un algoritmo. La nueva norma pretende empujar a los organismos públicos a crear transparencia sobre cómo, cuándo y dónde se toman las decisiones algorítmicas. Unmute Duración  0:55 / Hora actual  0:28 Ajustes avanzados Pantalla completa Pausa Siguiente El uso de algoritmos para tomar decisiones en los servicios públicos está siendo objeto de un creciente escrutinio en todo el mundo. Recientemente, en el Reino Unido se ha presentado ...

La IA responsable de la profesora Virginia Dignum

https://www.youtube.com/watch?v=l_57TQ4w1Yw

¿Debe la IA ser tratada como los humanos?

https://www.makeuseof.com/should-ai-be-treated-like-humans/ La inteligencia artificial (IA) aún no ha alcanzado el nivel humano. Pero con la tecnología cerrando la brecha cada año más, han surgido muchos problemas éticos. Una pregunta importante es: ¿Cómo se parecerá la inteligencia artificial a los seres humanos? ¿Pensarán por sí mismas o tendrán deseos y emociones? ¿Deben tener derechos legales como los humanos? ¿Deben ser obligadas a trabajar o a rendir cuentas si algo sale mal? En este artículo nos adentramos en estas cuestiones y en otras más. Ética de la IA: Por qué es importante pensar en ella Un robot de IA La IA y la ética de las máquinas son dos campos relacionados que están ganando cada vez más adeptos. Se relacionan con varios aspectos importantes de la tecnología, como la forma en que diseñamos, utilizamos y tratamos las máquinas. La mayoría de estas cuestiones están relacionadas con la seguridad en relación con los seres humanos. Sin embargo, la ética de la IA está empeza...

El nuevo traje de la gobernanza de datos Cuando los ciudadanos, los consumidores y las partes interesadas no pueden hacer que las instituciones rindan cuentas de sus promesas, hay pocas razones para confiar en ellas

https://www.cigionline.org/articles/data-governances-new-clothes/ El "gobierno" de los datos, sin derechos reales, es una ilusión vergonzosa. Recientemente, el Servicio Nacional de Salud (NHS) del Reino Unido, a menudo descrito como el orgullo de ese país, recibió el revés legal y de la prensa por una política de compartir la información sanitaria personal de los pacientes con terceros, entre ellos Palantir, una controvertida empresa tecnológica estadounidense. La medida fue lo suficientemente preocupante como para inspirar una demanda, meses de retrasos en la investigación y una protesta de los médicos. Pero, quizá lo más preocupante, es que el Gobierno británico describió su necesidad de confianza y cumplimiento de las leyes de datos, al tiempo que obligaba a los pacientes -probablemente de forma ilegal- a pasar por un enrevesado proceso de "exclusión", en lugar de obtener un consentimiento afirmativo. La medida centraliza de forma significativa las decisiones sob...

Cuando los agentes artificiales mienten, difaman y defraudan, ¿quién tiene la culpa?

  https://hai.stanford.edu/news/when-artificial-agents-lie-defame-and-defraud-who-blame La película Robot y Frank imagina un futuro cercano en el que se pueden comprar robots para que actúen como cuidadores y compañeros en casa. El hijo de Frank le compra un robot, y éste no tarda en darse cuenta de que puede contar con su ayuda para cometer robos de gatos. El robot empieza a mostrar creatividad e iniciativa en estos actos delictivos, y Frank sufre demencia. ¿Quién es el responsable último de estas violaciones de la ley? Los expertos en robótica e inteligencia artificial tendrán que suspender la creencia para disfrutar de Robot y Frank: el robot tiene capacidades que seguirán siendo puramente de ciencia ficción durante algún tiempo. Pero los continuos avances en el campo de la inteligencia artificial hacen que merezca la pena considerar una cuestión provocativa que puede adquirir mayor relevancia práctica en el futuro: ¿Cómo reaccionaríamos, como individuos y como sociedad, ante un...

La importancia de la responsabilidad en la ética de la IA

https://www.siliconrepublic.com/machines/ai-ethics-eu-regulation-joanna-j-bryson La experta en ética de la IA Joanna J Bryson habló con Siliconrepublic.com sobre los retos de la regulación de la IA y por qué hay que seguir trabajando. A medida que la IA se convierte en una parte más importante de la sociedad, la ética que rodea a esta tecnología requiere un mayor debate, ya que hay que tener en cuenta todos los aspectos, desde la privacidad y la discriminación hasta la seguridad humana. En los últimos años ha habido varios ejemplos que han puesto de manifiesto los problemas éticos de la IA, como una biblioteca de imágenes del MIT para entrenar la IA que contenía términos racistas y misóginos y el controvertido sistema de puntuación de créditos en China. En los últimos años, la UE ha dado pasos conscientes para abordar algunos de estos problemas, sentando las bases para una regulación adecuada de la tecnología. Sus propuestas más recientes revelan planes para clasificar las diferentes a...

Desafiando el status quo de la jurisprudencia

https://www.livelaw.in/columns/artificial-intelligence-jurisprudence-175193 La jurisprudencia siempre se ha enfrentado a desafíos por innovaciones, desarrollos socioeconómicos y cambios en el panorama político.

La necesidad de una garantía de IA eficaz

https://cdei.blog.gov.uk/2021/04/15/the-need-for-effective-ai-assurance/ Las tecnologías basadas en datos, como la inteligencia artificial (IA), tienen el potencial de generar beneficios significativos para nuestra economía y nuestra sociedad. Sin embargo, también introducen riesgos que deben gestionarse. A medida que estas tecnologías se adoptan más ampliamente, existe una necesidad cada vez mayor de que una variedad de actores, incluidos reguladores, desarrolladores, ejecutivos y usuarios de primera línea, verifiquen que estas herramientas estén funcionando como se espera, de una manera que cumpla con los estándares (incluyendo regulación), y para demostrarlo a otros. Sin embargo, estos actores a menudo tienen información limitada o carecen del conocimiento especializado adecuado para garantizar que los sistemas de IA sean confiables. Para abordar esta brecha de información, se requiere un ecosistema de garantía de IA eficaz. La garantía como servicio se basa originalmente en la prof...

RECONOCIMIENTO FACIAL Y DERECHOS HUMANOS: ¿CUÁL ES EL PAPEL DE LOS INVERSORES RESPONSABLES?

https://www.candriam.com/en/professional/market-insights/topics/sri/facial-recognition-and-human-rights-what-is-the-role-of-responsible-investors/ Natural, Fácil, Rápido, Automático, Rentable ..... Muchos de nosotros damos la bienvenida a la tecnología facial. Mejora la eficiencia y la seguridad. Lo usamos para desbloquear teléfonos inteligentes de alta gama y para pasar más rápidamente por los aeropuertos. Si bien solo ahora comienza a ser ampliamente utilizada, la tecnología de reconocimiento facial (FRT) ha estado en desarrollo durante décadas. .... pero ¿son los derechos humanos un costo oculto? La inversión responsable es más que reaccionar ante los riesgos y problemas que enfrentamos hoy. Es más que "verde" y clima. Es el reconocimiento del papel de las finanzas en la sociedad. La tecnología nos ha brindado algunos beneficios maravillosos y algunas inversiones maravillosas. Durante el año reciente de distanciamiento pandémico, la tecnología permitió que muchas familias ...

Robótica responsable y atribución de responsabilidad

https://link.springer.com/chapter/10.1007/978-3-030-54173-6_20 Este documento destaca la centralidad de la responsabilidad humana como base necesaria para establecer políticas y regulaciones claras sobre robótica; responsabilidad no por parte del hardware o software de un robot, sino por parte de los humanos detrás de las máquinas, aquellos que investigan y desarrollan robótica. En pocas palabras, necesitamos una robótica responsable. La robótica responsable es un término que se ha "puesto de moda" recientemente, pero aún se está desarrollando una comprensión de lo que significa la robótica responsable. A la luz de la complejidad del desarrollo (es decir, las muchas manos involucradas) y la novedad del desarrollo de robots (es decir, pocas juntas reguladoras establecidas para garantizar la responsabilidad), es necesario establecer procedimientos para asignar responsabilidades futuras entre los actores involucrados en la Desarrollo e implementación. Las tres leyes alternativas...

Segunda Asamblea de la Alianza Europea de IA

 Esta reunión trató sobre: el Ecosistema de confianza COVID-19 Sector público Identificación Biométrica IA y Responsabilidad Evaluación de conformidad https://futurium.ec.europa.eu/en/european-ai-alliance/document/2nd-european-ai-alliance-assembly-event-report

Actores públicos sin valores públicos: legitimidad, dominación y regulación del sector tecnológico

 La escala y la asimetría del poder de las empresas de tecnología comercial sobre las personas a través de los datos, combinada con la creciente participación del sector privado en la gobernanza pública, significa que cada vez más, las personas no tienen la capacidad de optar por no participar en las empresas de tecnología. Al mismo tiempo, esas empresas están interviniendo cada vez más a nivel de la población de formas que tienen implicaciones para la vida social y política. Esto crea el potencial para las relaciones de poder de dominación y exige que decidamos qué constituye la legitimidad para actuar sobre el público. La ética empresarial y el derecho privado no están diseñados para responder a estas preguntas, que son principalmente políticas. Si las personas han perdido el derecho a desvincularse de las tecnologías comerciales, es posible que debamos hacer que las empresas que las ofrecen cumplan con los mismos estándares que exigimos al sector público. Este artículo primero d...

El robot me obligó a hacerlo: interacción humano-robot y comportamiento de asunción de riesgos

 ¿Pueden los robots afectar el comportamiento de riesgo humano? En este estudio, los autores utilizan la tarea de riesgo analógico con balón (BART) para medir la conducta de riesgo entre los participantes cuando estaban 1) solos, 2) entre un robot silencioso y 3) entre un robot que fomentaba el comportamiento de riesgo. Los resultados muestran que el comportamiento de toma de riesgos aumentó entre los participantes cuando fue alentado por el robot.

Cómo responsabilizar a las redes sociales por socavar la democracia

 El problema con las redes sociales no es solo lo que publican los usuarios, es lo que las plataformas deciden hacer con ese contenido. Lejos de ser neutrales, las empresas de redes sociales toman decisiones constantemente sobre qué contenido amplificar, elevar y sugerir a otros usuarios. Dado su modelo de negocio, que promueve la escala por encima de todo, a menudo han amplificado activamente el contenido extremo y divisivo, incluidas las peligrosas teorías de conspiración y la desinformación. Es hora de que los reguladores intervengan. Un buen lugar para comenzar sería aclarar quién debería beneficiarse de la Sección 230 de la Ley de Decencia en las Comunicaciones, que ha sido muy sobreinterpretada para brindar inmunidad general a todas las empresas de Internet, o "intermediarios de Internet" para cualquier contenido de terceros que alojen. Específicamente, es hora de redefinir lo que significa un "intermediario de Internet" y crear una categoría más precisa para ...

Los marcos éticos voluntarios no protegerán contra el sesgo algorítmico

El "optimismo tecnológico ingenuo" que asume que las nuevas tecnologías darán como resultado resultados sociales positivos ya no es aceptable, dijo el Dr. Kanta Dihal, investigador e investigador de Global AI Narratives en el Leverhulme Center for the Future of Intelligence de la Universidad de Cambridge en Digital Ethics Summit 2020, organizado por el organismo comercial techUK. En este entorno, las empresas y las organizaciones gubernamentales deben garantizar que el uso de la IA sea justo y equitativo. Los marcos éticos, mediante los cuales las organizaciones o industrias definen y se comprometen con comportamientos éticos, son herramientas importantes para ayudarlas a lograrlo. "Las empresas no deberían crear IA a menos que tengan un marco y un modelo de gobierno para llegar a eso en solo un segundo en torno a la creación de la IA", dijo Allyn L Shaw, presidente y director de tecnología de Recycle Track Systems, en Digital Cumbre de Ética. "Ese modelo de go...

Inteligencia artificial confiable en la educación: trampas y caminos

 En todo el mundo, las aplicaciones de inteligencia artificial (IA) están ingresando a todos los dominios de nuestras vidas, incluido el entorno educativo. Este desarrollo fue impulsado aún más por la pandemia de COVID-19, que hizo que muchas instituciones educativas dependieran de las herramientas de aprendizaje digital (habilitadas por IA) para continuar sus actividades. Si bien el uso de sistemas de inteligencia artificial puede generar numerosos beneficios, también puede implicar riesgos éticos, que aparecen cada vez más en las agendas de los legisladores. Muchos de estos riesgos son específicos del contexto y adquieren mayor importancia cuando están involucradas personas vulnerables, existen asimetrías de poder o los derechos humanos y los valores democráticos están en juego en general. Sin embargo, sorprendentemente, los reguladores hasta ahora han prestado poca atención a los riesgos específicos que surgen en el contexto de la Inteligencia Artificial en la educación (AIED). ...

Cuando los robots médicos fallan: principios de negligencia para una era de automatización

 En los últimos años, los investigadores han desarrollado robots médicos y chatbots para monitorear a los ancianos vulnerables y ayudar con algunas tareas básicas. Las aplicaciones de terapia impulsadas por inteligencia artificial ayudan a algunas personas con enfermedades mentales; los sistemas de pedido de medicamentos ayudan a los médicos a evitar interacciones peligrosas entre diferentes recetas; y los dispositivos de asistencia hacen que la cirugía sea más precisa y segura, al menos cuando la tecnología funciona según lo previsto. Y estos son solo algunos ejemplos de cambio tecnológico en la medicina. La adopción gradual de la IA en la medicina también plantea una cuestión de responsabilidad crítica para la profesión médica: ¿quién debería ser responsable cuando estos dispositivos fallan? Acertar con esta pregunta sobre la responsabilidad será de vital importancia no solo para los derechos de los pacientes, sino también para proporcionar los incentivos adecuados para la econom...

Los algoritmos son reglamentos- La necesidad de extender las garantías propias de las normas reglamentarias a los programas empleados por la administración para la adopción de decisiones

  En este trabajo se argumenta que los algoritmos empleados por parte de las Administraciones públicas para la adopción efectiva de decisiones han de ser considerados reglamentos por cumplir una función material estrictamente equivalente a la de las normas jurídicas, al reglar y predeterminar la actuación de los poderes públicos. Adicionalmente se estudia cómo, una vez asumida esta naturaleza jurídica reglamentaria de estas herramientas de programación, se deducen consecuencias jurídicas respecto de cómo han de realizarse los procedimientos de elaboración y aprobación de estos algoritmos, la necesidad de que los mismos estén debidamente publicados como normas jurídicas que son o la exigencia de que existan mecanismos de recurso directo e indirecto frente a los mismos. Todas estas consecuencias, como se expone en el texto, suponen un significativo y muy necesario incremento de las actuales garantías frente al empleo de algoritmos por parte de los poderes públicos. https://www.academ...

NEGLIGENCIA Y USUARIOS HUMANOS DE IA

A menudo se pide a la ley de negligencia que se adapte a las nuevas tecnologías. Lo mismo ocurre con la inteligencia artificial ("IA"). Aunque la IA a menudo evoca imágenes de robots autónomos, especialmente vehículos autónomos, la mayoría de las tecnologías de IA existentes no son autónomas. Más bien, son herramientas de ayuda a la toma de decisiones que tienen como objetivo mejorar la ineficiencia, la arbitrariedad y el sesgo de las decisiones humanas. Las herramientas de ayuda a la toma de decisiones se utilizan con frecuencia en contextos en los que operan la ley de negligencia o los análogos de negligencia, incluida la medicina, el asesoramiento financiero, la seguridad de los datos y la conducción (en vehículos parcialmente autónomos). Los usuarios de estas herramientas interactúan con la IA como lo harían con cualquier otra forma de desarrollo tecnológico, incorporándola en sus prácticas de toma de decisiones existentes. En consecuencia, es importante comprender cómo e...