Entradas

Mostrando las entradas etiquetadas como Limitaciones

La investigación en inteligencia artificial puede haber llegado a un callejón sin salida

https://www.salon.com/2021/04/30/why-artificial-intelligence-research-might-be-going-down-a-dead-end/ La icónica novela de ciencia ficción de 1968 de Philip K. Dick, "¿Sueñan los androides con ovejas eléctricas?" planteó una pregunta intrigante en su título: ¿soñaría un robot inteligente? En los 53 años transcurridos desde la publicación, la investigación en inteligencia artificial ha madurado significativamente. Y, sin embargo, a pesar de que Dick es profético sobre la tecnología de otras maneras, la pregunta planteada en el título no es algo en lo que los investigadores de IA estén tan interesados; nadie está intentando inventar un androide que sueñe con ovejas eléctricas. ¿Por qué? Principalmente, es que la mayoría de los investigadores y científicos de inteligencia artificial están ocupados tratando de diseñar software "inteligente" programado para realizar tareas específicas. No hay tiempo para soñar despierto. ¿O hay? ¿Y si la razón y la lógica no son la fuent...

Cuidado de la salud A.I. Necesita ser real

https://onezero.medium.com/health-care-a-i-needs-to-get-real-4aba0ae1241c Estoy emocionado de hablar con Muhammad Aurangzeb Ahmad. Muhammad es el científico investigador principal de KenSci, inc., Una empresa especializada en A.I. en el cuidado de la salud y profesor afiliado en el departamento de informática de la Universidad de Washington Bothell. Conozco a Muhammad desde hace mucho tiempo. Cuando comencé a enseñar filosofía en el Instituto de Tecnología de Rochester, él fue uno de mis primeros estudiantes. A lo largo de los años, nos hemos mantenido en contacto a medida que Muhammad obtuvo su doctorado en ciencias de la computación y, finalmente, se convirtió en un notable científico de datos e inteligencia artificial. investigador. Los intereses de Mahoma en la filosofía nunca han vacilado. A menudo me dirijo a él cuando necesito una explicación holística de las tendencias y controversias tecnológicas. Nuestra conversación ha sido editada y condensada para mayor claridad. Evan Seli...

La insoportable superficialidad de la "IA profunda"

https://www.fairobserver.com/business/technology/william-softky-cade-metz-book-genius-makers-artificial-intelligence-ai-tech-technology-news-91649/ El punto más importante es que la IA no se basa en absoluto en el cerebro. La mejor cita proviene del científico informático Alex Krizhevsky: "El aprendizaje profundo no debería llamarse IA ... Fui a la escuela de posgrado para establecer curvas". Señala que el aprendizaje profundo es en realidad solo una forma de matemática llamada "regresión no lineal". Inferencia matemática para estadísticas complejas, no un cerebro en absoluto. ¡Pero qué forma de aprendizaje profundo matemático es! Se fundó sobre los principios científicos más fiables posibles, los de la termodinámica y la teoría de la información (que comparten conceptos cruciales en común, como la entropía). Esos principios gemelos iluminan doblemente el objetivo de un motor de inferencia definitivo, por lo que los investigadores podrían acertarlo directamente. Las...

El impacto de la IA en el periodismo

Al principio, la mayoría de las herramientas de Natural Language Generation (NLG) que producen estos artículos fueron proporcionadas por empresas de software como Narrative Science. Hoy en día, muchas organizaciones de medios han desarrollado versiones internas. La BBC tiene Juicer, el Washington Post tiene Heliograf y casi un tercio del contenido publicado por Bloomberg es generado por un sistema llamado Cyborg. Estos sistemas comienzan con datos: gráficos, tablas y hojas de cálculo. Los analizan para extraer hechos particulares que podrían formar la base de una narrativa. Generan un plan para el artículo y, finalmente, elaboran oraciones utilizando software de generación de lenguaje natural. Estos sistemas solo pueden producir artículos en los que se disponga de datos altamente estructurados como entrada, como un video de un partido de fútbol o datos de hoja de cálculo del rendimiento anual de una empresa. No pueden escribir artículos con estilo, imaginación o análisis en profundidad...

La equidad que persigue la UE no puede ser automatizada

La equidad algorítmica se basa en fórmulas de equilibrio entre grupos. Sin embargo, la legislación de la UE pretende una equidad dependiente del contexto y frecuentemente depende del juez, lo que es imposible de lograr con fórmulas. Así que es necesario simplificar y concretar las exigencias legislativas. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3547922 Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Las Guías de Ética de la IA no resolverán los problemas

Recientemente la UE ha publicado un libro blanco sobre guías éticas de la IA incluyendo preocupaciones sobre privacidad y dignidad humana. También el Pentágono ha finalizado las suyas. Oxford también ha lanzado un programa para mantener la IA recta y estrecha y el WorldEconomic Forum ha resaltado las profundas implicaciones morales de la IA. En el fondo el miedo está detrás. Las anteriores tecnologías se podían controlar pero la IA reemplazará nuestras ideas. Los dispositivos de ahorro de trabajo se convierten en máquinas de toma de decisiones que operan en un vacío moral. Hasta ahora las peticiones han ido a los programadores que escriben los algoritmos. El problema es que la IA aprende por sí misma. El rumbo que toman se inicia por quienes inician el código. Lo que está en juego es mucho en cuanto el Pentágono quiere automatizar la toma de decisiones. La UE, el WEF y el Pentágono pueden estar alarmados por la ética de la IA, pero en realidad son los mismos problemas de siempre ...

El problema de mas métricas y la IA

Con frecuencia los modelos de IA buscan optimizar algún tipo de métrica lo que conduce a planteamientos miopes cortoplacistas. Propone un framework para mitigar los daños de sobrevalorar las métricas. https://arxiv.org/abs/2002.08512 por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La nieve y el hielo, un molesto obstáculo para los vehículos autónomos

La mayor parte de las pruebas de vehículos autónomos se realizan en lugares cálidos. Para llegar a ser útiles en cualquier lugar, eso debe cambiar. La nieve, el hielo, la niebla, añaden serias dificultades en el reconocimiento equivocado de señales, de peatones, etc https://www.wired.com/story/snow-ice-pose-vexing-obstacle-self-driving-cars/ por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)