https://hai.stanford.edu/news/state-ai-10-charts Esta semana, el HAI de Stanford ha publicado su Índice de IA 2021. El índice es un programa independiente desarrollado por un equipo interdisciplinario de HAI en colaboración con el mundo académico, la industria y el gobierno. Cada año analiza el impacto y el progreso de la IA, analizando y destilando patrones sobre el impacto de la IA en todo, desde las economías nacionales hasta el crecimiento del empleo, la diversidad y la investigación. Consulte el informe para conocer en profundidad lo que ha sucedido en el sector este último año, o bien recorra algunos de los aspectos más destacados aquí. Imagen El gráfico muestra que en Singapur se produjo un fuerte crecimiento de los puestos de trabajo de IA. La demanda de mano de obra para la IA en seis países cubiertos por los datos de Burning Glass ha crecido significativamente en los últimos siete años. Estados Unidos es el único país de los seis que registró una disminución en su propor...
https://www.hpe.com/us/en/insights/articles/it-s-time-for-ai-to-explain-itself-2108.html Los modelos de IA son cada vez más precisos, pero ni siquiera los científicos de datos que los crearon pueden explicar por qué, y eso es un problema. Los algoritmos basados en la IA forman parte de la vida cotidiana de casi todo el mundo. Todos nos hemos acostumbrado a que las máquinas nos sugieran una nueva serie para ver en Netflix, otra persona a la que seguir en Facebook o lo siguiente que tenemos que pedir en Amazon. También están impulsando decisiones mucho más importantes, como en qué acciones invertir, qué procedimientos médicos considerar o si se puede optar a una hipoteca. En algunos casos, un sistema de IA puede ofrecer mejores consejos que un asesor financiero, un médico o un banquero. Pero si acabas en el lado equivocado de un algoritmo, no hay ninguna persona a la que puedas abrochar para explicar por qué tu solicitud de préstamo fue rechazada o tu currículum descartado. Y con demasia...
Existe un cierto temor a que la IA pueda llevar a crear un ser malvado tipo Terminator. Los ciudadanos necesitan más seguridad del impacto positivo en sus vidas de la IA al ser usada por el el Gobierno, según recoge el Comité sobre Normas en la Vida Pública. Asegura que los organismos deben ser más transparentes sobre su uso cuando son utilizados con personas. Algunas personas creen que es como la tecnología de los cajeros del supermercado, otros que tienen propensión a tomar malas indecisiones por sí mismos. No tanto porque aprendan a ser malvados, sino porque alguien incluya en ellos ese código. Según el Comité no es necesario un nuevo regulador sino adaptar las leyes. La mayor preocupación es los sesgos (bias). https://www.dailymail.co.uk/news/article-7986765/Britons-fear-Terminator-style-takeover-AI-learns-bad-says-watchdog.html por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)
Comentarios
Publicar un comentario