Entradas

Mostrando las entradas etiquetadas como Confianza Confiable Trust Trustworthy

Medir la confianza en la Inteligencia Artificial (IA)

https://scitechdaily.com/measuring-trust-in-artificial-intelligence-ai/ Los investigadores han descubierto que la confianza del público en la IA varía mucho de una aplicación a otra. Investigadores de la Universidad de Tokio han estudiado las actitudes del público en general hacia la ética de la IA, impulsados por la creciente atención que la inteligencia artificial (IA) suscita en la sociedad. Sus hallazgos cuantifican cómo afectan a estas actitudes los diferentes escenarios demográficos y éticos. Como parte de esta investigación, el equipo desarrolló un indicador visual octogonal similar al sistema de calificación. Esto puede ser útil para los investigadores de IA que quieran saber cómo percibe su trabajo el público en general. Muchos consideran que el rápido desarrollo de la tecnología suele superar el desarrollo de las estructuras sociales que la guían y regulan implícitamente, como el derecho y la ética. La IA, en particular, lo demuestra porque de la noche a la mañana impregna la...

¿Confías en la IA? La inteligencia artificial y por qué la confianza juega un papel clave en el manejo de las nuevas tecnologías

https://link.springer.com/chapter/10.1007/978-3-662-63117-1_16 ¿Sin confianza, no hay utilidad? La confianza se propaga a menudo como un factor crítico de éxito cuando se trata del uso de nuevas tecnologías, especialmente cuando se trata de sistemas inteligentes, la llamada IA (inteligencia artificial). De hecho, cada vez están más presentes en la sociedad actual, tanto en el ámbito privado (por ejemplo, comprando con Alexa, el altavoz inteligente basado en IA de Amazon) como en el profesional o en el educativo (por ejemplo, sistemas inteligentes diseñados para apoyar los procesos de selección de personal o de aprendizaje). El uso de tecnologías inteligentes y ubicuas aumenta la incertidumbre y el escepticismo, especialmente entre los usuarios finales sin conocimientos técnicos, e intensifica el campo de tensión entre los seres humanos, las máquinas y la sociedad. La cuestión de la confianza se pone en el punto de mira. ¿Es la confianza del consumidor la solución para explotar plenamen...

El impacto de las explicaciones en la confianza de los profanos en las aplicaciones de comprobación de síntomas basadas en la inteligencia artificial: Estudio experimental

https://www.jmir.org/2021/11/e29386/ Dependiendo del grupo de tratamiento, se generaron dos o tres variables que reflejaban el conocimiento previo y el modelo mental posterior que tenían los participantes. Al variar el tipo de explicación según la enfermedad, la migraña resultó no significativa (P=0,65) y la arteritis temporal, marginalmente significativa (P=0,09). Al variar la enfermedad según el tipo de explicación se obtuvo significación estadística para la influencia de la entrada (P=0,001), la prueba social (P=0,049) y la ausencia de explicación (P=0,006), con una explicación contrafactual (P=0,053). Los resultados sugieren que la confianza en las explicaciones se ve significativamente afectada por la enfermedad que se explica. Cuando los profanos tienen conocimientos sobre una enfermedad, las explicaciones tienen poco impacto en la confianza. Cuando la necesidad de información es mayor, los distintos tipos de explicaciones generan niveles de confianza significativamente diferente...

Permitir que el usuario final actúe y confíe en los sistemas de inteligencia artificial

https://beyondstandards.ieee.org/enabling-end-user-trust-in-artificial-intelligence-in-the-algorithmic-age/ Los sistemas complejos de inteligencia artificial (SIA) se abren paso cada vez más en los contextos de consumo. Los usuarios de a pie, sin experiencia en el sector, se introducen en estos sistemas con distintos grados de transparencia y comprensión de la tecnología. Además, la mayoría no tiene claro cómo la interacción con estos sistemas puede afectar a sus vidas, tanto de forma positiva como negativa.  En un mundo ideal, imaginamos que podemos aprovechar las ventajas de los SIA y, al mismo tiempo, mitigar sus riesgos. Por eso se creó el Comité de Confianza y Agencia del IEEE (creado como comité de la Iniciativa Global del IEEE sobre Ética de los Sistemas Autónomos e Inteligentes). A medida que navegamos por la fase de innovación transitoria de los SIA, la comprensión y el debate crítico sobre el papel y la interacción de la confianza y la agencia del usuario final, junto con...

IA veraz: desarrollar y gobernar una IA que no mienta

https://www.lesswrong.com/posts/aBixCPqSnTsPsTJBQ/truthful-ai-developing-and-governing-ai-that-does-not-lie En muchos contextos, la mentira -el uso de falsedades verbales para engañar- es perjudicial. Aunque la mentira ha sido tradicionalmente un asunto humano, los sistemas de IA que hacen declaraciones verbales sofisticadas son cada vez más frecuentes. Esto plantea la cuestión de cómo deberíamos limitar el daño causado por las "mentiras" de la IA (es decir, las falsedades que se seleccionan activamente). La veracidad humana se rige por las normas sociales y por las leyes (contra la difamación, el perjurio y el fraude). Las diferencias entre la IA y los seres humanos ofrecen la posibilidad de establecer normas de veracidad más precisas para la IA y de que estas normas aumenten con el tiempo. Esto podría aportar importantes beneficios a la episteme pública y a la economía, y mitigar los riesgos de los peores casos de IA.  El establecimiento de normas o leyes sobre la veracidad...

¿POR QUÉ LAS EMPRESAS TIENEN PROBLEMAS CON LA INTELIGENCIA ARTIFICIAL ÉTICA?

https://news.northeastern.edu/2021/09/23/ethical-artificial-intelligence/ Algunas de las organizaciones más importantes del mundo, desde las Naciones Unidas hasta Google y el Departamento de Defensa de Estados Unidos, proclaman con orgullo su buena fe en lo que respecta al uso ético de la inteligencia artificial. Pero para muchas otras organizaciones, hablar por hablar es la parte fácil. Un nuevo informe elaborado por un par de investigadores del Northeastern analiza cómo la articulación de los valores, los conceptos éticos y los principios es sólo el primer paso para abordar los desafíos de la IA y la ética de los datos. El trabajo más difícil es pasar de las promesas vagas y abstractas a los compromisos sustantivos que guían la acción y son medibles. "Se ve un caso tras otro en el que una empresa tiene estas declaraciones de misión que no cumplen", dice John Basl, profesor asociado de filosofía y coautor del informe. "Su intento de hacer ética se desmorona". ronal...

Necesitamos diseñar la desconfianza en los sistemas de IA para hacerlos más seguros

https://www.technologyreview.com/2021/05/13/1024874/ai-ayanna-howard-trust-robots/ Me he dado cuenta de que utiliza el término "inteligencia humanizada" para describir su investigación, en lugar de "inteligencia artificial". ¿A qué se debe? Sí, empecé a utilizarlo en un artículo en 2004. Pensaba en por qué trabajamos en la inteligencia de los sistemas de robótica e IA. No es que queramos crear estas características inteligentes fuera de nuestras interacciones con las personas. Nos motiva la experiencia humana, los datos humanos, las aportaciones humanas. "Inteligencia artificial" implica que es un tipo diferente de inteligencia, mientras que "inteligencia humanizada" dice que es inteligente pero motivada por la construcción humana. Y eso significa que cuando creamos estos sistemas, también nos aseguramos de que tengan algunos de nuestros valores sociales. ¿Cómo se metió en este trabajo? La motivación principal fue mi investigación de doctorado. P...

Para que los pacientes confíen en la IA médica, deben entenderla

https://hbr.org/2021/09/for-patients-to-trust-medical-ai-they-need-to-understand-it La IA promete aumentar la calidad y reducir el coste de la asistencia sanitaria en los países desarrollados y en desarrollo. Pero un obstáculo para su uso es que los pacientes no confían en ella. Una de las razones principales es que perciben la IA médica como una caja negra y creen saber más del proceso de toma de decisiones de los médicos de lo que realmente saben, según la investigación de los autores. Un remedio: Ofrecer a los pacientes una explicación de cómo toman las decisiones ambos tipos de profesionales sanitarios.

El ETSI publica especificaciones que impulsan la automatización fiable de las redes y los servicios de extremo a extremo

https://www.etsi.org/newsroom/press-releases/1968-2021-09-etsi-releases-specifications-boosting-trustful-end-to-end-network-and-service-automation?jjj=1631558313533 El ETSI se complace en anunciar la publicación de tres importantes especificaciones e informes elaborados por su grupo de gestión de redes y servicios "Zero-touch" (ZSM). ETSI GS ZSM 003, define la gestión de extremo a extremo de la red y el proyecto de arquitectura de orquestación y soluciones, y ETSI GS ZSM 009-1 especifica los habilitadores para la automatización de bucle cerrado. Los aspectos generales de seguridad relacionados con el marco y las soluciones de ZSM, así como las posibles opciones de mitigación, se presentan en el ETSI GR ZSM 010. El grupo ZSM del ETSI se formó con el objetivo de definir un marco, soluciones y tecnologías básicas operativas de extremo a extremo y preparadas para el futuro que permitieran la automatización sin intervención de las redes y los servicios/rebanadas emergentes y futur...

Asegurar que los modelos estadísticos generen confianza pública

https://osr.statisticsauthority.gov.uk/publication/ensuring-statistical-models-command-public-confidence/ Aprender lecciones del enfoque para desarrollar modelos para otorgar calificaciones en el Reino Unido en 2020 Resumen ejecutivo Objeto de este informe En marzo de 2020, los ministros responsables de la educación en Inglaterra, Escocia, Gales e Irlanda del Norte anunciaron el cierre de escuelas como parte de la respuesta del Reino Unido al brote de coronavirus. Posteriormente, otros anuncios del gobierno confirmaron que no se llevarían a cabo exámenes públicos en el verano de 2020. Los cuatro reguladores de calificaciones del Reino Unido: Ofqual (Inglaterra), Scottish Qualifications Authority (Escocia), Qualifications Wales (Gales) y el Consejo para el Currículo, los Exámenes y la Evaluación (Irlanda del Norte), recibieron instrucciones de sus respectivos gobiernos para supervisar el desarrollo de un enfoque para otorgar calificaciones en ausencia de exámenes. Si bien los enfoques a...

Segunda Asamblea de la Alianza Europea de IA

 Esta reunión trató sobre: el Ecosistema de confianza COVID-19 Sector público Identificación Biométrica IA y Responsabilidad Evaluación de conformidad https://futurium.ec.europa.eu/en/european-ai-alliance/document/2nd-european-ai-alliance-assembly-event-report

Reglas de IA: lo que quiere el Parlamento Europeo

La inteligencia artificial (IA) es una parte importante de la transformación digital. De hecho, es difícil imaginar la vida sin el uso de IA en muchos bienes y servicios, y está destinado a traer más cambios en el lugar de trabajo, negocios, finanzas, salud, seguridad, agricultura y otros campos. La IA también será crucial para el acuerdo verde de la UE y la recuperación de Covid-19. La UE está preparando actualmente su primer conjunto de normas para gestionar las oportunidades y amenazas de la IA, centrándose en generar confianza en la IA, incluida la gestión de su impacto potencial en las personas, la sociedad y la economía. Las nuevas normas también tienen como objetivo proporcionar un entorno en el que los investigadores, desarrolladores y empresas europeos puedan prosperar. La Comisión Europea quiere impulsar la inversión pública y privada en tecnologías de IA a 20.000 millones de euros al año.   https://www.europarl.europa.eu/news/en/headlines/priorities/artificial-intelligen...

por qué la desigualdad y el declive económico impulsan la polarización

 La polarización social y política es una fuente importante de conflicto en muchas sociedades. Comprender sus causas se ha convertido en una prioridad para los académicos de todas las disciplinas. Demostramos que cambios en las estrategias de socialización análogos a la polarización política pueden surgir como una respuesta localmente beneficiosa tanto al aumento de la desigualdad de la riqueza como al declive económico. En muchos contextos, la interacción con diversos grupos externos confiere beneficios de la innovación y la exploración mayores que los que surgen de interactuar exclusivamente con un grupo interno homogéneo. Sin embargo, cuando el entorno económico favorece la aversión al riesgo, una estrategia de búsqueda de interacciones grupales de menor riesgo puede ser importante para mantener la solvencia individual. Nuestro modelo muestra que en condiciones de declive económico o creciente desigualdad, algunos miembros de la población se benefician al adoptar una estrategia ...

Para una verdadera "IA confiable", la UE debe proteger los derechos y generar beneficios

 A medida que la inteligencia artificial prolifera en toda Europa y más allá, las realidades injustas y dañinas asociadas con su uso están saliendo a la luz, desde identificar y atacar a manifestantes pacíficos hasta discriminar en función del género percibido. Al mismo tiempo, un movimiento global en torno a la protección de los derechos humanos y la prohibición de algunas aplicaciones de IA está ganando impulso, lo que obliga a los gobiernos a luchar y crear nuevas respuestas regulatorias y pensar más allá de fomentar la innovación. El último informe de Access Now, el enfoque europeo de la inteligencia artificial: cómo está evolucionando la estrategia de IA, explora las acciones que están tomando los gobiernos de la UE para promover lo que la UE llama IA de confianza, lo que este enfoque significa para los derechos humanos y cómo está cambiando la estrategia europea de IA, tanto para las instituciones de la UE y los gobiernos nacionales. Consulte la instantánea del informe para o...

La IA ética no es lo mismo que la IA de confianza, y eso es importante

https://noticiasmoviles.com/la-ia-etica-no-es-lo-mismo-que-la-ia-fiable-y-esto-es-importante/ Las soluciones de inteligencia artificial (IA) se enfrentan a un mayor escrutinio debido a su capacidad para amplificar tanto las buenas como las malas decisiones. Más específicamente, por su propensión a exponer y aumentar los prejuicios y desigualdades sociales existentes. Entonces, es correcto que las discusiones sobre ética ocupen un lugar central a medida que aumenta la adopción de la IA. En sintonía con la ética surge el tema de la confianza. La ética son las reglas que rigen las decisiones que tomamos y las acciones que tomamos. Estas reglas de conducta reflejan nuestras creencias fundamentales sobre lo que es correcto y justo. La confianza, por otro lado, refleja nuestra creencia de que otra persona, o empresa, es confiable, tiene integridad y se comportará de la manera que esperamos. La ética y la confianza son conceptos discretos, pero a menudo se refuerzan mutuamente.

Inteligencia artificial confiable en la educación: trampas y caminos

 En todo el mundo, las aplicaciones de inteligencia artificial (IA) están ingresando a todos los dominios de nuestras vidas, incluido el entorno educativo. Este desarrollo fue impulsado aún más por la pandemia de COVID-19, que hizo que muchas instituciones educativas dependieran de las herramientas de aprendizaje digital (habilitadas por IA) para continuar sus actividades. Si bien el uso de sistemas de inteligencia artificial puede generar numerosos beneficios, también puede implicar riesgos éticos, que aparecen cada vez más en las agendas de los legisladores. Muchos de estos riesgos son específicos del contexto y adquieren mayor importancia cuando están involucradas personas vulnerables, existen asimetrías de poder o los derechos humanos y los valores democráticos están en juego en general. Sin embargo, sorprendentemente, los reguladores hasta ahora han prestado poca atención a los riesgos específicos que surgen en el contexto de la Inteligencia Artificial en la educación (AIED). ...

Nueva antología analiza la IA ética y fiable en la UE

 La antología analiza en qué medida las nociones de IA ética y confiable, presentadas por el Grupo de expertos de alto nivel en inteligencia artificial y la Comisión Europea, han influido en las estrategias de IA en Portugal, Países Bajos, Italia, República Checa, Polonia, Noruega como así como los países nórdicos en general. El punto de partida de la antología es el enfoque de la Comisión Europea sobre "IA confiable", expresado en las directrices de la Comisión Europea para una IA ética y confiable, en las 33 recomendaciones de política e inversión de la Comisión para una IA confiable, así como en el Libro Blanco de la Comisión sobre Inteligencia Artificial. . Una pregunta central y orientadora es en qué medida los elementos de las Directrices éticas, como los principios éticos y los requisitos clave, se muestran en la estrategia nacional. Además, los autores examinan cómo los países hablan y promueven la IA en términos de aplicabilidad, conciencia del consumidor, espíritu e...

Confianza pública y transparencia

 La innovación sostenible en la tecnología basada en datos depende de la creación y el mantenimiento de la confianza del público. Es evidente que hay un camino por recorrer para generar la confianza del público en los algoritmos, y el punto de partida obvio para esto es garantizar que los algoritmos sean confiables; en la revisión del CDEI sobre el sesgo en la toma de decisiones algorítmicas, analizamos una parte clave de esto. En la revisión, consideramos el papel que puede desempeñar la transparencia en la construcción de un entorno confiable y garantizar la equidad. Si bien esto es cierto en todos los sectores, el sector público tiene la responsabilidad particular de dar ejemplo de cómo debería ser una buena transparencia en el uso de algoritmos. El sector público toma muchas de las decisiones de mayor impacto que afectan a las personas, y esperamos que el sector público pueda justificar y evidenciar sus decisiones. Si bien una persona tiene la opción de optar por no utilizar un...

IA centrada en el ser humano en la UE

 La Unión Europea ha adoptado una postura clara sobre la IA: queremos IA, pero no queremos ninguna IA; queremos una IA que esté centrada en los seres humanos y sea de confianza. Esto significa que la IA es un medio para mejorar la vida para nosotros, no un fin en sí mismo. Para ser confiable, debe cumplir con las reglas y regulaciones aplicables, satisfacer cuatro principios éticos y ser implementado de manera segura y sólida, como lo hemos definido en el Grupo de expertos de alto nivel en IA. La Comisión ha puesto en marcha cuatro redes de centros de investigación de excelencia en IA (las llamadas redes ICT-48 después del nombre de la convocatoria) está ejecutando el proyecto AI4EU, 1 y tiene la intención de iniciar una asociación público-privada (APP) sobre IA , datos y robótica. Además, y como se centra en esta valiosa contribución, la Comisión también está animando a los Estados miembros a avanzar en la misma dirección a través del Plan de Acción Coordinado sobre IA. ¡Todo esto...

Reflexiones sobre IA

 Una de las cuestiones más críticas es la controvertida y muy relación crítica entre el tema de la confianza y la IA https://ieai.mcts.tum.de/wp-content/uploads/2020/11/Reflections-on-AI-Ethics_MarisaTschopp_Final1.pdf Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.