Demasiados investigadores creen que los problemas del mundo real no son relevantes

 Cualquier investigador que se centre en aplicar el aprendizaje automático a problemas del mundo real probablemente haya recibido una respuesta como esta: “Los autores presentan una solución para un problema original y muy motivador, pero es una aplicación y la importancia parece limitada para la máquina. comunidad de aprendizaje."

Estas palabras provienen directamente de una revisión que recibí de un artículo que presenté a la conferencia NeurIPS (Sistemas de procesamiento de información neuronal), un lugar destacado para la investigación del aprendizaje automático. He visto el estribillo una y otra vez en reseñas de artículos en los que mis coautores y yo presentamos un método motivado por una aplicación, y he escuchado historias similares de muchos otros.

Esto me hace preguntarme: si la comunidad siente que el objetivo de resolver problemas del mundo real de alto impacto con el aprendizaje automático tiene una importancia limitada, ¿qué estamos tratando de lograr?

Marginar la investigación de aplicaciones tiene consecuencias reales. Los conjuntos de datos de referencia, como ImageNet o COCO, han sido clave para avanzar en el aprendizaje automático. Permiten entrenar y comparar algoritmos con los mismos datos. Sin embargo, estos conjuntos de datos contienen sesgos que pueden incorporarse a los modelos resultantes.

Más de la mitad de las imágenes de ImageNet (pdf) provienen de Estados Unidos y Gran Bretaña, por ejemplo. Ese desequilibrio lleva a los sistemas a clasificar de manera inexacta las imágenes en categorías que difieren según la geografía (pdf). Los conjuntos de datos de rostros populares, como la Base de datos de rostros de AT&T, contienen principalmente sujetos masculinos de piel clara, lo que conduce a sistemas que luchan por reconocer rostros de piel oscura y mujeres.

https://www.technologyreview.com/2020/08/18/1007196/ai-research-machine-learning-applications-problems-opinion/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje