https://www.hpe.com/us/en/insights/articles/it-s-time-for-ai-to-explain-itself-2108.html Los modelos de IA son cada vez más precisos, pero ni siquiera los científicos de datos que los crearon pueden explicar por qué, y eso es un problema. Los algoritmos basados en la IA forman parte de la vida cotidiana de casi todo el mundo. Todos nos hemos acostumbrado a que las máquinas nos sugieran una nueva serie para ver en Netflix, otra persona a la que seguir en Facebook o lo siguiente que tenemos que pedir en Amazon. También están impulsando decisiones mucho más importantes, como en qué acciones invertir, qué procedimientos médicos considerar o si se puede optar a una hipoteca. En algunos casos, un sistema de IA puede ofrecer mejores consejos que un asesor financiero, un médico o un banquero. Pero si acabas en el lado equivocado de un algoritmo, no hay ninguna persona a la que puedas abrochar para explicar por qué tu solicitud de préstamo fue rechazada o tu currículum descartado. Y con demasia...
El 23 de septiembre de 2020, el Comité de Ministros aprobó el informe de avances del Comité Ad hoc de Inteligencia Artificial (CAHAI), en el que se detallan los trabajos realizados y los avances hacia el cumplimiento del mandato del comité desde su constitución el 11 de septiembre de 2019. El informe de situación establece una hoja de ruta clara para la acción hacia un instrumento jurídico del Consejo de Europa basado en los derechos humanos, el Estado de derecho y la democracia. Su clara relevancia también ha sido confirmada y reforzada por la reciente pandemia de COVID-19. Se espera que el estudio preliminar de viabilidad, que proporciona indicaciones sobre el marco legal sobre el diseño y el desarrollo de inteligencia artificial basado en los estándares del Consejo de Europa, sea examinado por la CAHAI en su próxima tercera reunión plenaria en diciembre de 2020. 2021 también estará dedicado a múltiples -consultas a las partes interesadas y la finalización de los elementos del m...
A menudo recurrimos a la tecnología para ayudar a resolver problemas. Pero cuando la sociedad define, enmarca y representa a las personas de color como "el problema", esas soluciones suelen hacer más daño que bien. Hemos diseñado tecnologías de reconocimiento facial que se dirigen a los sospechosos de delitos en función del color de la piel. Hemos capacitado sistemas automatizados de elaboración de perfiles de riesgo que identifican de manera desproporcionada a los latinos como inmigrantes ilegales. Hemos diseñado algoritmos de calificación crediticia que identifican de manera desproporcionada a las personas negras como riesgos y les impiden comprar casas, obtener préstamos o encontrar trabajo. Entonces, la pregunta que tenemos que enfrentar es si continuaremos diseñando e implementando herramientas que sirvan a los intereses del racismo y la supremacía blanca. Por supuesto, no es una pregunta nueva en absoluto. https://www.technologyreview.com/2020/06/03/1002589/technology-...
Comentarios
Publicar un comentario