Entradas

Requisitos de seguridad frente a la ética de la colisión: lo que más importa en las políticas sobre vehículos autónomos

https://link.springer.com/article/10.1007/s00146-020-00964-6 La literatura filosófico-ética y el debate público sobre los vehículos autónomos se han obsesionado con las cuestiones éticas relacionadas con la colisión. En este artículo, se evaluarán críticamente estos debates, incluidas las investigaciones más empíricas. Se argumenta que una cuestión relacionada y más apremiante son las cuestiones relativas a la seguridad. Por ejemplo, ¿qué debemos exigir a los vehículos autónomos en materia de seguridad? ¿Qué entendemos por "seguridad"? ¿Cómo la medimos? En respuesta a estas preguntas, el artículo presentará una base para un debate continuado sobre estas cuestiones y un argumento de por qué los debates sobre la seguridad deberían tener prioridad sobre las preocupaciones éticas relacionadas con las colisiones.

IA y derecho: implicaciones éticas, jurídicas y sociopolíticas

https://link.springer.com/article/10.1007/s00146-021-01194-0 Vivimos tiempos interesantes. La humanidad ha sido testigo de avances tecnológicos sin precedentes en lo que respecta a la inteligencia artificial (IA), que ahora repercute en nuestra vida cotidiana a través, por ejemplo, de nuestros teléfonos inteligentes y del Internet de las Cosas. La IA determina el resultado de nuestras solicitudes de crédito y préstamo; en Estados Unidos, a menudo informa de las decisiones de libertad condicional; e impregna nuestros entornos de trabajo. En las últimas décadas, hemos visto los efectos positivos de la IA en casi todos los ámbitos de nuestras vidas, pero también nos hemos encontrado con importantes desafíos éticos y legales en áreas como el transporte autónomo, el sesgo de las máquinas y el problema de la caja negra. También ha surgido la preocupación por el rápido desarrollo y el creciente uso de las tecnologías inteligentes, especialmente en lo que respecta a su impacto en los derechos ...

Responsabilidad algorítmica para el sector público

  The full report is available  here , and the executive summary  here .   El Instituto Ada Lovelace (Ada), el Instituto AI Now (AI Now) y la Open Government Partnership (OGP) se han asociado para lanzar el primer estudio mundial que analiza la ola inicial de políticas de algorítmica para el sector público. Este estudio tiene como objetivo comprender los desafíos y los éxitos de de las políticas de rendición de cuentas algorítmica desde la perspectiva de los de los actores e instituciones directamente responsables de su aplicación sobre el terreno. Este resumen ejecutivo destaca las principales conclusiones de este estudio. Lea el informe completo para obtener más detalles sobre estas conclusiones y estudios de casos prácticos de políticas aplicadas. Instituto Ada Lovelace, Instituto AI Now y Open Government Partnership. (2021). Algorithmic Accountability for the Public Sector. Disponible en: https://www.opengovpartnership.org/documents/ algorithmic-accountability-pu...

La identidad en un mundo "Phygital": Por qué el cambio a seres humanos legibles por máquinas exige una mejor gobernanza de la identificación digital

https://www.cigionline.org/articles/identity-in-a-phygital-world-why-the-shift-to-machine-readable-humans-demands-better-digital-id-governance/ Dieciocho meses después de la pandemia de COVID-19, se ha instalado una inquietud palpable, ya que la gente, en todas partes, está desesperada por reincorporarse al mundo y reanudar sus vidas. Pero en esta nueva realidad, incluso las actividades antiguas y familiares tienen una nueva dimensión digital. ¿Le apetecen unas vacaciones en Europa? Prepárese para presentar una aplicación móvil o un código de respuesta rápida (QR) cuando le pidan que viaje. ¿Desea asistir a un espectáculo de Broadway en Nueva York o a una cena en Los Ángeles? ¿Planea volver al campus este otoño? Lo más probable es que tenga que presentar una prueba de vacunación a través de una aplicación móvil o por otros medios digitales para viajar, disfrutar del teatro, cenar fuera o incluso asistir a conferencias; de hecho, la ciudad de Nueva York exigirá una prueba de vacunación ...

Las herramientas de IA de los hospitales no están bien documentadas

https://hai.stanford.edu/news/flying-dark-hospital-ai-tools-arent-well-documented A principios de este año, los hospitales de Estados Unidos se enteraron de una noticia impactante: Un modelo de inteligencia artificial ampliamente utilizado para detectar los primeros signos de sepsis, la mortal infección de origen hospitalario, se equivocaba más a menudo de lo que acertaba. Los investigadores de la Universidad de Michigan calcularon que el modelo de inteligencia artificial no detectó alrededor de dos tercios de los casos reales cuando lo aplicaron a los datos de 30.000 pacientes del hospital de la universidad. Además, generó un gran número de falsas alarmas. Aunque sorprendente en sí mismo, el estudio apuntaba a un problema más profundo: los modelos de inteligencia artificial suelen obtener buenas puntuaciones en las pruebas estadísticas de precisión predictiva, pero su rendimiento es sorprendentemente pobre en entornos médicos en tiempo real. Algunos modelos son más precisos para los p...

Demasiados investigadores de IA piensan que los problemas del mundo real no son relevantes

https://www-technologyreview-com.cdn.ampproject.org/c/s/www.technologyreview.com/2020/08/18/1007196/ai-research-machine-learning-applications-problems-opinion/amp/ Cualquier investigador que se haya centrado en aplicar el aprendizaje automático a problemas del mundo real probablemente haya recibido una respuesta como ésta: "Los autores presentan una solución para un problema original y muy motivador, pero es una aplicación y la importancia parece limitada para la comunidad del aprendizaje automático". Estas palabras proceden directamente de una reseña que recibí por un artículo que presenté en la conferencia NeurIPS (Neural Information Processing Systems), un lugar destacado para la investigación sobre el aprendizaje automático. He visto este estribillo una y otra vez en las reseñas de los trabajos en los que mis coautores y yo presentamos un método motivado por una aplicación, y he escuchado historias similares de innumerables personas. Publicidad Esto me hace preguntarme: S...

El ordenador dice no: cómo las leyes de la UE sobre IA provocan nuevas injusticias

https://euobserver.com/investigations/152695 Cuando Roger Derikx solicitó las prestaciones por cuidado de hijos, pensó que recibiría dinero, no que lo perdería. Derikx, de 46 años, tuvo que devolver al gobierno holandés 68.000 euros. El problema: nunca le dijeron por qué tenía que devolver las prestaciones, a las que tenía derecho. Las autoridades le embargaron el coche y le recortaron el 40% de su sueldo durante años. "Tienes dos hijos pequeños y quieres dárselo todo", dijo Derikx, "pero cada vez que te piden algo, tienes que decir 'no'; es duro". Derikx fue uno de los 26.000 padres acusados de presentar solicitudes fraudulentas de prestaciones por la autoridad fiscal holandesa, que utilizó un algoritmo para detectar el fraude. El sistema era "ilegal y discriminatorio", según una investigación oficial, que acabó llevando al primer ministro holandés, Mark Rutte, a dimitir a principios de este año. Para Derikx, la investigación llegó demasiado tarde...