https://hai.stanford.edu/news/state-ai-10-charts Esta semana, el HAI de Stanford ha publicado su Índice de IA 2021. El índice es un programa independiente desarrollado por un equipo interdisciplinario de HAI en colaboración con el mundo académico, la industria y el gobierno. Cada año analiza el impacto y el progreso de la IA, analizando y destilando patrones sobre el impacto de la IA en todo, desde las economías nacionales hasta el crecimiento del empleo, la diversidad y la investigación. Consulte el informe para conocer en profundidad lo que ha sucedido en el sector este último año, o bien recorra algunos de los aspectos más destacados aquí. Imagen El gráfico muestra que en Singapur se produjo un fuerte crecimiento de los puestos de trabajo de IA. La demanda de mano de obra para la IA en seis países cubiertos por los datos de Burning Glass ha crecido significativamente en los últimos siete años. Estados Unidos es el único país de los seis que registró una disminución en su propor...
https://www.hpe.com/us/en/insights/articles/it-s-time-for-ai-to-explain-itself-2108.html Los modelos de IA son cada vez más precisos, pero ni siquiera los científicos de datos que los crearon pueden explicar por qué, y eso es un problema. Los algoritmos basados en la IA forman parte de la vida cotidiana de casi todo el mundo. Todos nos hemos acostumbrado a que las máquinas nos sugieran una nueva serie para ver en Netflix, otra persona a la que seguir en Facebook o lo siguiente que tenemos que pedir en Amazon. También están impulsando decisiones mucho más importantes, como en qué acciones invertir, qué procedimientos médicos considerar o si se puede optar a una hipoteca. En algunos casos, un sistema de IA puede ofrecer mejores consejos que un asesor financiero, un médico o un banquero. Pero si acabas en el lado equivocado de un algoritmo, no hay ninguna persona a la que puedas abrochar para explicar por qué tu solicitud de préstamo fue rechazada o tu currículum descartado. Y con demasia...
A menudo recurrimos a la tecnología para ayudar a resolver problemas. Pero cuando la sociedad define, enmarca y representa a las personas de color como "el problema", esas soluciones suelen hacer más daño que bien. Hemos diseñado tecnologías de reconocimiento facial que se dirigen a los sospechosos de delitos en función del color de la piel. Hemos capacitado sistemas automatizados de elaboración de perfiles de riesgo que identifican de manera desproporcionada a los latinos como inmigrantes ilegales. Hemos diseñado algoritmos de calificación crediticia que identifican de manera desproporcionada a las personas negras como riesgos y les impiden comprar casas, obtener préstamos o encontrar trabajo. Entonces, la pregunta que tenemos que enfrentar es si continuaremos diseñando e implementando herramientas que sirvan a los intereses del racismo y la supremacía blanca. Por supuesto, no es una pregunta nueva en absoluto. https://www.technologyreview.com/2020/06/03/1002589/technology-...
Comentarios
Publicar un comentario