Cómo la IA está siendo transformada por los "modelos de fundación
https://www.thebulwark.com/how-ai-is-being-transformed-by-foundation-models/?s=03
En el mundo de la informática y la inteligencia artificial, pocos temas están generando tanto interés como el auge de los llamados "modelos fundacionales". Estos modelos pueden considerarse meta-AI -pero no Meta-AI, si se entiende lo que quiero decir-, sistemas que incorporan vastas redes neuronales con conjuntos de datos aún mayores. Son capaces de procesar mucho pero, lo que es más importante, son fácilmente adaptables a todos los ámbitos de la información, acortando y simplificando lo que hasta ahora era un laborioso proceso de entrenamiento de los sistemas de IA. Si los modelos fundacionales cumplen su promesa, la IA podría tener un uso comercial mucho más amplio.
Para dar una idea de la escala de estos algoritmos, GPT-3, un modelo básico para el procesamiento del lenguaje natural publicado hace dos años, contiene más de 170.000 millones de parámetros, las variables que guían las funciones dentro de un modelo. Evidentemente, son muchos parámetros y dan una idea de la complejidad de estos modelos. Esta complejidad conlleva una considerable incertidumbre, incluso entre los diseñadores, sobre su funcionamiento.
Imagen de portada del episodio del podcast
PODCAST - MAYO 06 2022
Bill Kristol: Esper, Pompeo y Roe
No, dejar que los estados resuelvan el derecho al aborto no bajará la temperatura. Además, Trump guarda un extraño silencio...
En una reciente conferencia de la Universidad de Stanford, científicos e ingenieros describieron cómo la llegada de los modelos fundacionales ha sido posible gracias a los sustanciales avances en la ingeniería de hardware que han rebajado los costes de procesamiento de datos al reducir la cantidad de tiempo y energía que el sistema utiliza para gestionarse a sí mismo mientras ejecuta su análisis de datos. El resultado es que la investigación en IA ha conseguido crear modelos genéricos, en el sentido de que están preentrenados utilizando un único y enorme conjunto de datos y pueden realizar una variedad de tareas diferentes con relativamente poca intervención del programador, en lugar de estar adaptados a una única tarea y conjunto de datos. Un científico de la IA lo comparó con aprender a patinar. Si sabes caminar, tienes la mayoría de las habilidades que necesitas para patinar; pequeños cambios y algo de práctica es todo lo que necesitas.
Como es de suponer, un salto cuántico como éste está generando controversia, empezando por la cuestión de si el propio término "modelo de fundación" señala un esfuerzo por parte de una sola institución -Stanford, que lanzó un Centro de Investigación sobre Modelos de Fundación el año pasado- para ejercer la hegemonía intelectual y el cierre epistémico sobre el campo de la IA. Entran en juego las envidias y rivalidades profesionales e institucionales ("¡Que Stanford diga que tiene la fundación!"). Sin embargo, por debajo de todo esto parece haber una mezcla de genuina preocupación por "no adelantarse a los acontecimientos" y por cómo la terminología podría afectar a la distribución del capital de inversión y el apoyo a la investigación.
*** Translated with www.DeepL.com/Translator (free version) ***
Comentarios
Publicar un comentario