A medida que la IA se vuelve omnipresente, hay riesgos, dice el nuevo informe AI100
La inteligencia artificial ha alcanzado un punto de inflexión crítico en su evolución, según un nuevo informe elaborado por un grupo internacional de expertos que evalúa el estado de este campo por segunda vez en cinco años.
Los importantes avances en el procesamiento del lenguaje, la visión por ordenador y el reconocimiento de patrones hacen que la IA afecte a la vida de las personas a diario, desde la ayuda para elegir una película hasta el diagnóstico médico. Sin embargo, este éxito conlleva una renovada urgencia por comprender y mitigar los riesgos y desventajas de los sistemas basados en la IA, como la discriminación algorítmica o el uso de la IA para el engaño deliberado. Los informáticos deben colaborar con expertos en ciencias sociales y jurídicas para garantizar que se minimicen los riesgos de la IA.
Estas conclusiones proceden de un informe titulado "Gathering Strength, Gathering Storms: The One Hundred Year Study on Artificial Intelligence (AI100) 2021 Study Panel Report", elaborado por un grupo de expertos en informática, política pública, psicología, sociología y otras disciplinas que participan en AI100. El comité permanente de AI100 está presidido por Peter Stone, profesor de ciencias de la computación de la Universidad de Texas en Austin, director ejecutivo de Sony AI America y autor principal y presidente del panel de un informe anterior del comité que evaluó la evolución de la IA hace cinco años.
"Aunque se han escrito muchos informes sobre el impacto de la IA en los últimos años, los informes de AI100 son únicos porque están escritos por personas con experiencia en IA -expertos que crean algoritmos de IA o estudian su influencia en la sociedad como su principal actividad profesional- y porque forman parte de un estudio continuo, longitudinal y de un siglo de duración", dijo Stone. "El informe de 2021 es fundamental para este aspecto longitudinal de AI100, ya que enlaza estrechamente con el informe de 2016 al comentar lo que ha cambiado en los cinco años transcurridos. También proporciona una magnífica plantilla para que los futuros paneles de estudio la emulen al responder a un conjunto de preguntas que esperamos que los futuros paneles de estudio reevalúen a intervalos de cinco años."
Debates virtuales del grupo de expertos
Martes 28 de septiembre a las 11:00 y a las 19:00 horas (CT)
Escuche e interactúe con un panel de autores del informe
Regístrese aquí
AI100 es un proyecto en curso auspiciado por el Instituto de Inteligencia Artificial Centrada en el Ser Humano de la Universidad de Stanford, cuyo objetivo es supervisar el progreso de la IA y orientar su desarrollo futuro. Michael Littman, profesor de ciencias informáticas de la Universidad de Brown, presidió el panel del nuevo informe.
"En los últimos cinco años, la IA ha pasado de ser algo que ocurre principalmente en los laboratorios de investigación u otros entornos muy controlados a ser algo que está en la sociedad y que afecta a la vida de las personas", dijo Littman. "Es muy emocionante, porque esta tecnología está haciendo cosas increíbles con las que sólo podíamos soñar hace cinco o diez años. Pero, al mismo tiempo, el sector se está enfrentando al impacto social de esta tecnología, y creo que la próxima frontera es pensar en cómo podemos obtener los beneficios de la IA minimizando los riesgos."
El informe, publicado el jueves 16 de septiembre, está estructurado para responder a un conjunto de 14 preguntas que exploran áreas críticas del desarrollo de la IA. Las preguntas fueron elaboradas por el comité permanente de AI100, formado por un reconocido grupo de líderes de la IA. A continuación, el comité reunió a un grupo de 17 investigadores y expertos para que las respondieran. Las preguntas incluyen "¿Cuáles son los avances más importantes en IA?" y "¿Cuáles son los grandes retos abiertos más inspiradores?". Otras preguntas abordan los principales riesgos y peligros de la IA, sus efectos en la sociedad, su percepción pública y el futuro del campo.
En cuanto a los avances de la IA, el grupo de expertos señaló que se han producido avances sustanciales en distintos subcampos de la IA, como el procesamiento del habla y el lenguaje, la visión por ordenador y otras áreas. Gran parte de este progreso ha sido impulsado por los avances en las técnicas de aprendizaje automático, en particular los sistemas de aprendizaje profundo, que han dado el salto en los últimos años desde el ámbito académico a las aplicaciones cotidianas.
Algunos de los riesgos y peligros citados en el informe se derivan del mal uso deliberado de la IA: imágenes y vídeos falsos utilizados para difundir información errónea o dañar la reputación de las personas, o bots en línea utilizados para manipular el discurso y la opinión pública. Otros peligros se derivan de "un aura de neutralidad e imparcialidad asociada a la toma de decisiones de la IA en algunos rincones de la conciencia pública, lo que da lugar a que los sistemas se acepten como objetivos a pesar de que pueden ser el resultado de decisiones históricas sesgadas o incluso de una discriminación flagrante", escribe el panel. Esto es especialmente preocupante en ámbitos como la aplicación de la ley, donde los sistemas de predicción de la delincuencia han demostrado afectar negativamente a las comunidades de color, o en la atención sanitaria, donde el sesgo racial incrustado en los algoritmos de los seguros puede afectar al acceso de las personas a una atención adecuada.
*** Translated with www.DeepL.com/Translator (free version) ***
Comentarios
Publicar un comentario