¿Quién debería detener la IA poco ética?

https://www.newyorker.com/tech/annals-of-technology/who-should-stop-unethical-ai

En ciencias de la computación, los principales medios para la investigación revisada por pares no son revistas sino conferencias, donde los artículos aceptados se presentan en forma de charlas o carteles. En junio de 2019, en una gran conferencia de inteligencia artificial en Long Beach, California, llamada Visión por computadora y reconocimiento de patrones, me detuve a mirar un póster de un proyecto llamado Speech2Face. Utilizando el aprendizaje automático, los investigadores habían desarrollado un algoritmo que generaba imágenes de rostros a partir de grabaciones de voz. Una buena idea, pensé, pero con resultados nada impresionantes: en el mejor de los casos, las caras coincidían con el sexo, la edad y la etnia de los hablantes, atributos que un oyente casual podría adivinar. Ese diciembre, vi un cartel similar en otro gran A.I. conferencia, Sistemas de procesamiento de información neuronal (Neurips), en Vancouver, Canadá. Tampoco le presté mucha atención.


Sin embargo, no mucho después, la investigación explotó en Twitter. "¿Qué es esta basura caliente, # NeurIPS2019?" Alex Hanna, una mujer trans y socióloga de Google que estudia A.I. ética, tuiteó. "Científicos de la computación y gente de aprendizaje automático, por favor, detengan esta horrible mierda transfóbica". Hanna objetó la forma en que la investigación buscaba vincular la identidad con la biología; Se produjo un extenso debate. Algunos usuarios de Twitter sugirieron que podría haber aplicaciones útiles para el software, como ayudar a identificar a los delincuentes. Otros argumentaron, incorrectamente, que una voz no revelaba nada sobre la apariencia de su hablante. Algunos hicieron bromas ("Un hecho de que esto nunca debería haber sido aprobado: Rick Astley. No hay manera de que su [sistema] hubiera predicho su voz fuera de la cabeza en ese momento") o cuestionaron si el término "transfóbico" fue una caracterización justa de la investigación. Varias personas dijeron que no estaban seguras de qué era exactamente lo que estaba mal en el trabajo. Como Hanna argumentó que la predicción de voz a cara era una línea de investigación que "no debería existir", otros preguntaron si la ciencia podría o debería detenerse. "Sería decepcionante si no pudiéramos investigar las correlaciones, si se hace de forma ética", escribió un investigador. “Difícil, sí. Imposible, ¿por qué?


Parte de la conversación se refirió al proceso de revisión y publicación en informática. “Es curioso si ha habido discusiones sobre la creación de juntas de revisión de ética en conferencias o con agencias de financiación (como el IRB) para guiar la investigación de la IA”, escribió una persona. (La junta de revisión institucional de una organización, o I.R.B., realiza una revisión ética de la investigación científica propuesta). Muchos comentaristas señalaron que lo que está en juego en A.I. las investigaciones no son puramente académicas. "Cuando una empresa comercializa esto a la policía, ¿les dice que puede estar totalmente fuera de lugar?" preguntó un investigador. Le escribí a Subbarao Kambhampati, un científico informático de la Universidad Estatal de Arizona y ex presidente de la Asociación para el Avance de la Inteligencia Artificial, para averiguar qué pensaba del debate. "Cuando las conferencias de IA de 'nivel superior' aceptan este tipo de estudios", respondió, "tenemos mucha menos credibilidad para rechazar aplicaciones implementadas sin sentido, como 'evaluar a los candidatos a entrevistas a partir de sus rasgos faciales utilizando tecnología de IA' o terroristas, etc., de sus fotos policiales ', ambas aplicaciones reales vendidas por empresas comerciales ". Michael Kearns, un científico informático de la Universidad de Pensilvania y coautor de "El algoritmo ético", me dijo que estamos en "un pequeño momento del Proyecto Manhattan" para A.I. y aprendizaje automático. “La investigación académica en el campo se ha desplegado a escala masiva en la sociedad”, dijo. "Con eso viene esta mayor responsabilidad".

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje