Entradas

Mostrando las entradas etiquetadas como Small Data

El resurgir de las redes neuronales estructuradas

El aprendizaje automático con redes neuronales profundas ("aprendizaje profundo") permite aprender características complejas directamente de los datos de entrada sin procesar, eliminando por completo la extracción de características "codificadas" hechas a mano. Esto ha llevado a lograr un rendimiento de vanguardia en varios dominios problemáticos --- previamente desconectados ---, incluyendo la visión por computadora, el procesamiento del lenguaje natural, el aprendizaje de refuerzo y el modelado generativo. Estas historias de éxito casi de manera universal van de la mano con la disponibilidad de inmensas cantidades de ejemplos de capacitación etiquetados ("big data") que exhiben una estructura simple tipo cuadrícula (por ejemplo, texto o imágenes), explotables a través de capas convolucionales o recurrentes. Esto se debe a la gran cantidad de grados de libertad en las redes neuronales, lo que deja su capacidad de generalización vulnerable a efectos como e...

Quieres aprender Deep Learning pero no tienes datos

La idea principal de Known Operator Learning es que no queremos aprender cosas que ya sabemos. Esto puede parecer intuitivo, pero generalmente desencadena expertos en Machine Learning. El paradigma de hoy es "el conocimiento está en los datos". Si incorporas conocimientos previos, esencialmente estás volviendo a la Edad de Piedra. https://towardsdatascience.com/you-want-to-learn-deep-but-you-dont-have-data-20ef3de8ba4a Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El Small Data puede jugar un gran papel en la IA

Más de los 3/4 de las grandes compañías están hambrientas de datos. Sin embargo los datos valiosos de la mayor parte de las empresas son pequeños datasets. La experiencia demuestra que pequeños datasets combinados con expertos humanos da buenos resultados. Por cada gran dataset hay mil pequeños datasets sin uso. Se ha visto que las anotaciones en unos pocos datos de un gran dataset resulta muy valioso. La idea es convertir a los codificadores, responsables de la precisa evaluación, en entrenadores de IA capaces de enriquecer la IA con conocimiento médico. La universidad de Harvard, tras un trabajo de 12 semanas, ha llegado a estar conclusiones: - el equilibrio entre aprendizaje automático y la experiencia humana permite crear herramientas inteligentes con pequeños datasets. - enfocarse en la calidad del trabajo humano, no en la cantidad del poder de cálculo. - reconocer la dinámica social en los equipos que trabajan con small data. Los codificadores se ven no como profesores d...