Entradas

Mostrando las entradas etiquetadas como Desmitificación iA

Las empresas se apresuran a utilizar la inteligencia artificial, pero pocas ven una recompensa

 El informe destaca las empresas que implementaron la IA como parte de un replanteamiento más amplio de cómo operan y, como resultado, obtuvieron mayores retornos. Repsol, por ejemplo, una empresa española de energía y servicios públicos, utiliza IA para identificar problemas en sus operaciones de perforación; coordinar la mezcla, el almacenamiento y la entrega de aceite; y generar automáticamente ofertas para los clientes. Pero el informe sugiere que Repsol se beneficia más de cómo aprende de estos procesos y, como resultado, implementa nuevas prácticas comerciales. https://www.wired.com/story/companies-rushing-use-ai-few-see-payoff/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

No estamos preparados para la IA, dice la ganadora del Squirrel AI Award de 1 millón de dólares

 Finalmente, ¿por qué la IA aún no ha tenido mucho impacto en covid-19? La IA no va a resolver todos los grandes problemas que tenemos. Pero ha habido algunos pequeños ejemplos. Cuando todos los servicios clínicos no esenciales se redujeron a principios de este año, usamos una herramienta de inteligencia artificial para identificar qué pacientes de oncología en Boston aún deberían ir y hacerse su mamografía anual. Pero la razón principal por la que la IA no ha sido más útil no es la falta de tecnología, sino la falta de datos. Ya sabes, estoy en el equipo de liderazgo de la J-Clinic del MIT, un centro de inteligencia artificial en el cuidado de la salud, y muchos de nosotros en abril dijimos: Realmente queremos hacer algo, ¿dónde podemos obtener los datos? Pero no pudimos conseguirlo. Fue imposible. Incluso ahora, seis meses después, no es obvio cómo obtenemos los datos. La segunda razón es que no estábamos listos. Incluso en circunstancias normales, cuando las personas no están ba...

Es difícil para las redes neuronales aprender el juego de la vida

 Los esfuerzos para mejorar las capacidades de aprendizaje de las redes neuronales se han centrado principalmente en el papel de los métodos de optimización más que en las inicializaciones ponderadas. Sin embargo, hallazgos recientes sugieren que las redes neuronales se basan en pesos iniciales aleatorios afortunados de subredes llamadas "billetes de lotería" que convergen rápidamente en una solución. Para investigar cómo las inicializaciones de peso afectan el rendimiento, examinamos pequeñas redes convolucionales que están entrenadas para predecir n pasos del autómata celular bidimensional Conway's Game of Life, cuyas reglas de actualización se pueden implementar de manera eficiente en una red convolucional de capa 2n + 1. Encontramos que las redes de esta arquitectura entrenadas en esta tarea rara vez convergen. Más bien, las redes requieren sustancialmente más parámetros para converger de manera consistente. Además, las arquitecturas casi mínimas son sensibles a peque...

La Patrulla Fronteriza ha utilizado el reconocimiento facial para escanear más de 16 millones de volantes y solo capturó a 7 impostores

 La agencia que administra el programa de reconocimiento facial en el aeropuerto y la frontera de los Estados Unidos no ha informado adecuadamente al público sobre cómo funciona, según un nuevo informe. En general, el informe se lee como una gran señal de alerta: el gobierno de los EE. UU. Está avanzando con la adopción de esta tecnología cuestionable, y no informa al público ni controla la precisión. Por ley, se supone que la Patrulla de Aduanas y Fronteras debe informar al público cuando se usa el reconocimiento facial colocando carteles claros y legibles que le digan a las personas que se están escaneando sus rostros y cómo pueden optar por no participar. También se supone que el departamento debe poner información precisa y actualizada en línea sobre su reconocimiento facial y proporcionar información a través de su centro de llamadas. https://onezero.medium.com/border-patrol-used-facial-recognition-to-scan-more-than-16-million-fliers-and-caught-7-imposters-21332a5c9c40 Editado...

¿Todo es justo en préstamos hipotecarios y fintech?

 La IA no es inmune a los desafíos de los sesgos sistémicos. Como Sarah Myers West, investigadora postdoctoral del AI Now Institute de la Universidad de Nueva York, explicó a CBS News, "recurrimos al aprendizaje automático con la esperanza de que sean más objetivos, pero en realidad lo que están haciendo es reflejar y amplificar el historial patrones de discriminación y, a menudo, de formas que son más difíciles de ver ". Se ha creado un círculo vicioso inadvertido, mediante el cual se utilizan datos contaminados para informar decisiones futuras. https://www.forbes.com/sites/ilonalimonta-volkova/2020/08/28/all-is-fair-in-mortgage-lending-and-fintech/#5864eb637aa3 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Por qué algo de inteligencia artificial es inteligente hasta que se vuelve tonta

 "Los seres humanos tendemos a sobreestimar los avances de la inteligencia artificial y subestimar la complejidad de nuestra propia inteligencia", escribe Mitchell. Por lo tanto, sugiere que los temores de que las máquinas superinteligentes se apoderen del mundo estén fuera de lugar, sugiere, citando comentarios del economista y científico del comportamiento Sendhil Mullainathan: “Deberíamos tener miedo”, escribió. “No de máquinas inteligentes. Pero de máquinas que toman decisiones que no tienen la inteligencia para tomar. Le tengo mucho más miedo a la estupidez de la máquina que a la inteligencia de la máquina ". Incluso cuando las máquinas funcionan bien, no siempre son tan inteligentes como parecen. Los informes de habilidad en el reconocimiento de imágenes, por ejemplo, deben atenuarse por el hecho de que los informes de precisión de la máquina a menudo se refieren a sus cinco "suposiciones" principales: si alguna de las cinco es correcta, la máquina recibe...

Demasiados investigadores creen que los problemas del mundo real no son relevantes

 Cualquier investigador que se centre en aplicar el aprendizaje automático a problemas del mundo real probablemente haya recibido una respuesta como esta: “Los autores presentan una solución para un problema original y muy motivador, pero es una aplicación y la importancia parece limitada para la máquina. comunidad de aprendizaje." Estas palabras provienen directamente de una revisión que recibí de un artículo que presenté a la conferencia NeurIPS (Sistemas de procesamiento de información neuronal), un lugar destacado para la investigación del aprendizaje automático. He visto el estribillo una y otra vez en reseñas de artículos en los que mis coautores y yo presentamos un método motivado por una aplicación, y he escuchado historias similares de muchos otros. Esto me hace preguntarme: si la comunidad siente que el objetivo de resolver problemas del mundo real de alto impacto con el aprendizaje automático tiene una importancia limitada, ¿qué estamos tratando de lograr? Marginar la i...

La amenaza de la automatización es una profecía autocumplida

 A medida que las máquinas hicieron que ciertas tareas fueran más eficientes, aumentando la producción general, la demanda se desplazó hacia las tareas complementarias que no podían automatizarse. A medida que avanza la tecnología, se puede automatizar cada vez más el trabajo, hasta un punto nunca antes soñado, y el patrón de demanda laboral que se desplaza hacia tareas complementarias que requieren habilidad humana y más adaptabilidad se ha mantenido. Pero algunos argumentan que los avances en inteligencia artificial ahora pueden o pronto podrán automatizar tareas más allá de esta restricción. Esta promesa de la IA ha existido desde el inicio del campo en la década de 1950. El pionero de la IA, Marvin Minsky, declaró en 1961 que “[dentro] de nuestra vida, las máquinas pueden superarnos en inteligencia general”. Sus colegas hicieron declaraciones similares. Los primeros fracasos en la investigación de la IA pueden haber advertido a los investigadores sobre el método, pero nunca la ...

'No culpe a un algoritmo, culpe a las personas detrás de él'

 Los resultados del algoritmo de calificación de exámenes son preocupantes y profundamente perjudiciales para aquellos cuyas calificaciones se han degradado, la mayoría de los cuales provienen de entornos desfavorecidos. Ninguna persona razonable y racional podría dejar de simpatizar completamente con la desesperación palpable y la injusticia que sienten los jóvenes, sus padres y maestros. Entonces, ¿qué salió mal? La palabra "algoritmo" se ha convertido en el villano misterioso y sin rostro que llena el debate y la discusión sobre los resultados de GCSE y A-level de este año. Pero, ¿qué es y cómo podemos entender su papel en este fiasco? Dejemos una cosa clara desde el principio. Los algoritmos no son peligrosos en sí mismos. Son las personas que tomaron las decisiones sobre qué algoritmos aplicar, qué datos usar y exactamente cómo combinar los datos y el algoritmo quienes son el problema, no el algoritmo en sí. El uso particular de este algoritmo de calificación de exámenes...

Reconsiderando la madurez de la inteligencia artificial en entornos críticos para la seguridad

 Si bien la inteligencia artificial (IA) ha sido recientemente promocionada como muy exitosa en varios dominios, incluidos el transporte, las aplicaciones médicas y los asistentes personales digitales, la realidad Es posible que estos sistemas no sean tan capaces como se imaginaba. conciencia. Si bien la IA puede aparecer en muchas aplicaciones diarias, desde compras hasta administración de domótica, es la aplicación de IA en sistemas críticos para la seguridad como transporte y medicina eso es lo más preocupante ya que literalmente el uso incorrecto de la IA puede tener consecuencias mortales. Por ejemplo, en entornos de transporte, está bien establecido que la IA es incapaz de hacer frente con poses inesperadas de objetos conocidos, por ejemplo, una motocicleta tirada en el suelo después de una El accidente puede no verse como una motocicleta (Alcorn et al.2018). Problemas con la computadora automotriz La visión se han citado como factores contribuyentes en muchos accidentes fata...

Dos estudios revelan lo lejos que estamos de los vehículos totalmente automatizados

Recientemente, investigadores del MIT publicaron un estudio que analiza la movilidad, el empleo y la política de vehículos autónomos. La investigación encontró que los vehículos autónomos se producirán más tarde que antes. A pesar del optimismo de varias partes interesadas, incluidos Google y Tesla, de que los vehículos totalmente automatizados estarán disponibles pronto, los investigadores del MIT creen que puede pasar al menos otra década antes de que eso se convierta en una realidad. Incluso entonces, los vehículos autónomos pueden estar limitados a áreas urbanas y suburbanas en climas más cálidos. Los climas invernales y las áreas rurales experimentarán transiciones más largas, según el estudio. Un estudio proyecta cambios en el empleo bajo el supuesto de que toda la conducción se automatizará por completo para el 2050. Sin embargo, el estudio del MIT afirma que "es muy poco probable que esto ocurra". “Las mejores estimaciones actuales muestran un cambio lento hacia los s...

La tecnología NLP está persiguiendo el objetivo equivocado

El actual zeitgeist de la PNL surgió de media década de mejoras constantes bajo el paradigma de evaluación estándar. La capacidad de comprensión de los sistemas se ha medido generalmente en conjuntos de datos de referencia que constan de miles de preguntas, cada una acompañada de pasajes que contienen la respuesta. Cuando las redes neuronales profundas arrasaron el campo a mediados de la década de 2010, dieron un salto cualitativo en el rendimiento. Las rondas posteriores de trabajo mantuvieron los puntajes cada vez más cercanos al 100% (o al menos a la paridad con los humanos). Entonces, los investigadores publicarían nuevos conjuntos de datos de preguntas aún más complicadas, solo para ver que las redes neuronales aún más grandes publican rápidamente puntajes impresionantes. Gran parte de la investigación actual sobre comprensión lectora implica ajustar cuidadosamente los modelos para obtener algunos puntos porcentuales más en los últimos conjuntos de datos. "State of the art...

Cuando la Inteligencia Artificial no funciona en los negocios?

Hoy, la AI / ML tiende a quedarse corta en tres categorías principales: capacidades frente a expectativas, impacto financiero y amoralidad. Resumiendo, tiene difícil encaje, hoy por hoy. https://www.forbes.com/sites/quora/2020/08/04/when-does-artificial-intelligence-not-work-in-business/#7ae5bc3f1df0 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Predicción, Aprendizaje Automático y Vidas Individuales

Las técnicas de aprendizaje automático se utilizan cada vez más en toda la sociedad para predecir los resultados de la vida del individuo. Sin embargo, la investigación publicada en las Actas de la Academia Nacional de Ciencias plantea preguntas sobre la precisión de estas predicciones. Dirigida por investigadores de la Universidad de Princeton, esta colaboración masiva involucró a 160 equipos de datos y científicos sociales que construyeron modelos estadísticos y de aprendizaje automático para predecir seis resultados de vida para niños, padres y familias. Descubrieron que ninguno de los equipos podía hacer predicciones muy precisas, a pesar de utilizar técnicas avanzadas y tener acceso a un rico conjunto de datos. Esta entrevista de Matthew Salganik, autor principal del estudio y profesor de sociología en la Universidad de Princeton, fue realizada por Lauren Maffeo, analista principal asociada de Gartner, y Cynthia Rudin, profesora de ciencias de la computación, ingeniería eléctrica ...

¿Se podrá eliminar alguna vez los sesgos en la IA?

El momento actual nos pide evaluar casi todos los problemas sistémicos de nuestra sociedad. Si bien puede ser incómodo, la única forma de hacerlo es observar los sistemas que controlan quién gana y quién pierde y pregunta: "¿están sesgados?" Es conveniente pensar que nuestro trabajo en tecnología está por encima de estos problemas. Mucha gente en tecnología hace este trabajo para cambiar el mundo o ayudar a las comunidades necesitadas. Pero al igual que el resto de la sociedad, debemos tomar en serio este momento de autorreflexión, para que la próxima generación no juzgue nuestros fracasos tan duramente como juzgamos a nuestros mayores ahora. Hay cuestiones más importantes, como la discriminación en la contratación de tecnología, y las quejas de actos racistas y misóginos sin respuesta de los niveles superiores de las empresas de tecnología que deberán abordarse a nivel de empresa. Lo que queríamos hablar hoy es que los desarrolladores de discriminación están inyectando inadv...

Mitos de la IA

Esta web es una colección de artículos bien documentados sobre temas controvertidos en el uso de la IA. Evidentemente es desmitificadora. Con cada avance genuino en el campo de la "inteligencia artificial", vemos un aumento paralelo de exageraciones, mitos, conceptos erróneos e inexactitudes. Estos malentendidos contribuyen a la opacidad de los sistemas de IA, haciéndolos mágicos, inescrutables e inaccesibles a la vista del público. https://www.aimyths.org/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Incluso los mejores modelos de IA no son rivales para el coronavirus

El mercado de valores parece extrañamente indiferente a Covid-19 en estos días, pero eso no era cierto en marzo, ya que la magnitud y la amplitud de la crisis golpearon a casa. Según una medida, fue el mes más volátil en la historia del mercado de valores; el 16 de marzo, el promedio de Dow Jones cayó casi un 13 por ciento, su mayor descenso en un día desde 1987. Para algunos, el episodio inductor de vértigo también expuso una debilidad de las empresas comerciales cuantitativas (o cuantitativas), que se basan en modelos matemáticos, incluida la inteligencia artificial, para tomar decisiones comerciales. A algunas empresas cuantiosas prominentes les fue particularmente mal en marzo. A mediados de mes, algunos fondos de Bridgewater Associates habían caído un 21 por ciento durante el año hasta ese momento, según un comunicado publicado por el copresidente de la compañía, Ray Dalio. Vallance, un fondo cuantitativo administrado por DE Shaw, supuestamente perdió un 9 por ciento hasta el 24 d...

EN AMBIENTE DE TURBULENCIA ECONÓMICA, NO APUESTES EN LA INTELIGENCIA ARTIFICIAL PARA SALVARTE

¿Cuáles son los desafíos para la IA en áreas más complejas como contabilidad, legal, ingeniería y atención médica? Eso proporcionaría información valiosa para empresas, nuevas empresas de inteligencia artificial, universidades y formuladores de políticas, especialmente porque las llamadas historias de éxito en realidad son ejemplos brillantes de las limitaciones de la inteligencia artificial en este momento. El informe de Stanford cita vehículos autónomos, donde el éxito se ha quedado rezagado detrás del bombo. Permitir que los vehículos interpreten y reaccionen ante los innumerables objetos que los vehículos tripulados encuentran en las carreteras y autopistas y en los estacionamientos, y en todo tipo de clima, desde el sol deslumbrante hasta la nieve que cae, es mucho más complicado que identificar patrones en el comercio electrónico o buscar noticias. Los vehículos autónomos son perfectos en el laboratorio, defectuosos en carreteras reales. Lo mismo sucedió con IBM Watson, que una v...

Verificando la Hipótesis de la Revolución de la Automatización

Recientemente, muchos han pronosticado una revolución de automatización inminente y grandes pérdidas de empleos resultantes. Otros han creado métricas para predecir nuevos patrones en la vulnerabilidad de la automatización del trabajo. Como contexto para tales afirmaciones, probamos la teoría básica, dos métricas de vulnerabilidad y 251 características de trabajo O * NET como predictores de 1505 informes de expertos con respecto a los niveles de automatización en 832 tipos de trabajo de EE. UU. De 1999 a 2019. Encontramos que las métricas de pago, empleo y vulnerabilidad son predictivas (R ^ 2 ~ 0.15), pero agregan poco a las principales 25 funciones de trabajo O * NET, que juntas predicen mucho mejor (R ^ 2 ~ 0.55). Estos mejores predictores parecen entendibles en términos de los tipos tradicionales de automatización, y no han cambiado durante nuestro período de tiempo. En cambio, parece que los trabajos han cambiado sus características para ser más adecuados para la automatización. P...

Diferencia entre redes neuronales artificiales y cerebros biológicos

En un artículo publicado en la revista Nature, Anthony Zador, profesor del Laboratorio de Neurociencia Cold Spring Harbor Laboratory, argumenta que es un cerebro altamente estructurado que permite a los animales convertirse en aprendices muy eficientes. Titulado "Una crítica al aprendizaje puro y lo que las redes neuronales artificiales pueden aprender de los cerebros de los animales", el artículo de Zador explica por qué ampliar las capacidades actuales de procesamiento de datos de los algoritmos de IA no ayudará a alcanzar la inteligencia de los perros, y mucho menos a los humanos. Lo que necesitamos, explica Zador, no es AI que aprende todo desde cero, sino algoritmos que, como los seres orgánicos, tienen capacidades intrínsecas que se pueden complementar con la experiencia de aprendizaje. https://bdtechtalks.com/2020/07/06/artificial-neural-networks-vs-brains/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad D...