La carrera por entender el estimulante y peligroso mundo de la IA del lenguaje

https://www.technologyreview.com/2021/05/20/1025135/ai-large-language-models-bigscience-project/

Para empezar, Google planea integrar LaMDA en su portal de búsqueda principal, su asistente de voz y Workplace, su colección de software de trabajo en la nube que incluye Gmail, Docs y Drive. Pero el objetivo final, dijo Pichai, es crear una interfaz conversacional que permita a los usuarios recuperar cualquier tipo de información -texto, visual, audio- en todos los productos de Google con sólo pedirla.


El lanzamiento de LaMDA es una muestra más de cómo las tecnologías del lenguaje se están integrando en nuestra vida cotidiana. Pero la llamativa presentación de Google oculta el debate ético que rodea ahora a estos sistemas de vanguardia. LaMDA es lo que se conoce como un gran modelo lingüístico (LLM), un algoritmo de aprendizaje profundo entrenado con enormes cantidades de datos de texto.


Los estudios ya han demostrado cómo las ideas racistas, sexistas y abusivas están incrustadas en estos modelos. Asocian categorías como los médicos con los hombres y las enfermeras con las mujeres; las buenas palabras con los blancos y las malas con los negros. Si se les pregunta con los estímulos adecuados, también empiezan a fomentar cosas como el genocidio, la autolesión y el abuso sexual infantil. Debido a su tamaño, tienen una huella de carbono sorprendentemente alta. Debido a su fluidez, confunden fácilmente a la gente para que piense que un humano escribió sus productos, lo que los expertos advierten que podría permitir la producción masiva de información errónea.


LA DESCARGA

Suscríbase para recibir su dosis diaria de tecnología emergente

Introduzca su correo electrónico

Reciba actualizaciones y ofertas de MIT Technology Review

Inscríbase

Política de privacidad

En diciembre, Google destituyó a su codirectora de IA ética, Timnit Gebru, después de que se negara a retractarse de un artículo en el que se exponían muchos de estos puntos. Unos meses más tarde, tras una amplia denuncia de lo que en una carta abierta de los empleados de Google se denominó "censura de la investigación sin precedentes" de la empresa, ésta despidió también a la coautora y codirectora de Gebru, Margaret Mitchell.


No sólo Google está desplegando esta tecnología. Los modelos lingüísticos más destacados hasta ahora han sido el GPT-2 y el GPT-3 de OpenAI, que escupen pasajes de texto notablemente convincentes y pueden incluso reutilizarse para rematar composiciones musicales y código informático. Microsoft tiene ahora la licencia exclusiva de GPT-3 para incorporarla a productos aún no anunciados. Facebook ha desarrollado sus propios LLM para la traducción y la moderación de contenidos. Y las startups están creando docenas de productos y servicios basados en los modelos de los gigantes tecnológicos. Muy pronto, todas nuestras interacciones digitales -cuando enviamos correos electrónicos, hacemos búsquedas o publicamos en las redes sociales- se filtrarán a través de los LLM.


Por desgracia, se está investigando muy poco para entender cómo los defectos de esta tecnología podrían afectar a las personas en aplicaciones del mundo real, o para averiguar cómo diseñar mejores LLM que mitiguen estos desafíos. Como subrayó Google en su tratamiento de Gebru y Mitchell, las pocas empresas lo suficientemente ricas como para formar y mantener a los LLM tienen un gran interés financiero en negarse a examinarlos cuidadosamente. En otras palabras, los LLM se están integrando cada vez más en la infraestructura lingüística de Internet sobre bases científicas poco sólidas.

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social