La IA descontrolada puede poner en peligro la vida de las personas. Debemos aplicar garantías más estrictas
https://time.com/6084163/ai-safeguards/
La inteligencia artificial es ahora una de las industrias más concentradas del mundo. Dominada por un puñado de gigantes tecnológicos y desplegada a escala planetaria, la IA ya influye en instituciones sociales de alto riesgo en la educación, la justicia penal, la contratación y el bienestar. La IA está remodelando e interviniendo en el mundo, ampliando la desigualdad de la riqueza y las asimetrías de poder. Pero hasta ahora el sector ha escapado principalmente a la regulación, a pesar de afectar a la vida de miles de millones de personas, incluso cuando sus productos no están probados o son potencialmente dañinos.
La pandemia del COVID-19 ha acelerado esta situación. Muchas empresas de IA proponen ahora herramientas de reconocimiento de emociones (ERT) para controlar a los trabajadores a distancia e incluso a los escolares. Estos sistemas mapean las "microexpresiones" de los rostros de las personas a partir de sus cámaras de vídeo. A continuación, predicen estados emocionales internos extraídos de una breve lista de categorías supuestamente universales: felicidad, tristeza, ira, asco, sorpresa y miedo.
Se prevé que esta industria tenga un valor de 56.000 millones de dólares en 2024 y, sin embargo, hay considerables dudas científicas de que estos sistemas detecten con precisión los estados emocionales en absoluto. Una revisión histórica de 2019 de la investigación disponible no encontró ninguna correlación fiable entre la expresión facial y la emoción genuina. "No es posible inferir con confianza la felicidad de una sonrisa, la ira de un ceño fruncido o la tristeza de un ceño fruncido", declaró la revisión. Aun así, las empresas de IA se han basado en esta teoría de la "emoción universal" como medio para realizar análisis humanos a escala. Las ERT se utilizan ahora en las entrevistas de trabajo, en las aulas, en la seguridad de los aeropuertos y en las fuerzas del orden.
Comentarios
Publicar un comentario