Entradas

Mostrando entradas de julio, 2021

Cómo mejorar la percepción de equidad de la IA en la contratación: El papel crucial del posicionamiento y la sensibilización

https://www.aiethicsjournal.org/10-47289-aiej20210716-3 Las empresas despliegan cada vez más tecnologías de inteligencia artificial (IA) en sus procesos de reclutamiento y selección de personal para agilizarlos, haciéndolos así más eficientes, consistentes y con menos sesgo humano (Chamorro-Premuzic, Polli, & Dattner, 2019). Sin embargo, investigaciones anteriores encontraron que los solicitantes prefieren las entrevistas cara a cara en comparación con las entrevistas con IA, percibiéndolas como menos justas (por ejemplo, Acikgoz, Davison, Compagnone, & Laske, 2020). Además, existe evidencia emergente de que las influencias contextuales, como el tipo de tarea para la que se utiliza la IA (Lee, 2018), o las diferencias individuales de los solicitantes (Langer, König, Sánchez, & Samadi, 2019), pueden influir en las reacciones de los solicitantes a la selección impulsada por la IA. El propósito de nuestro estudio fue investigar si el ajuste de los factores de diseño del proces

El dilema social en el desarrollo de la IA y por qué debemos tenemos que resolverlo

https://arxiv.org/pdf/2107.12977.pdf Mientras aumenta la demanda de sistemas éticos de inteligencia artificial (IA), se acelera el número de usos no éticos de la IA, aunque no hay de directrices éticas. Sostenemos que una de las principales causas subyacentes es que los desarrolladores de IA se enfrentan a un dilema social en la ética del desarrollo de la IA, lo que impide la la adaptación generalizada de las mejores prácticas éticas. Definimos el dilema social para definimos el dilema social del desarrollo de la IA y describimos por qué la crisis actual de la ética del desarrollo de la IA no puede resolverse sin liberar a los desarrolladores de la IA de su dilema social. Argumentamos que el desarrollo de la IA debe profesionalizarse para superar el dilema social, y discutimos cómo la medicina puede servir de modelo en este proceso.

Reflexiones sobre la IA Preguntas y respuestas con John Tasioulas

https://ieai.mcts.tum.de/wp-content/uploads/2021/07/Reflections-on-AI-Ethics_John-Tasioulas-Final.pdf 1. ¿Cuál es el mayor concepto erróneo sobre la Inteligencia Artificial? Creo que hay muchos conceptos erróneos pero quizás la más importante es que fundamental es que se trata, en cierto sentido, un desarrollo tecnológico inexorable que nosotros, como individuos o sociedad, podemos ejercer muy poco control. Sin embargo, eso es manifiestamente falso porque es un terreno en el que las decisiones humanas se toman constantemente se toman [...]. Por supuesto, sirve a los que hacen que toman estas decisiones, los que están que están en el poder en el statu quo existente poder en el statu quo existente, para disfrazar este hecho como hechos inalterables de la naturaleza. Creo que que es un concepto erróneo contra el que tenemos que luchar constantemente contra ella y poner de relieve que se trata de un ámbito de elección, cuyas se está eligiendo aquí, que valora cuestiones realmente important

El mito de la rana hervida: ¡deja de mentir ya!

https://www.theatlantic.com/technology/archive/2006/09/the-boiled-frog-myth-stop-the-lying-now/7446/ Un vuelo de doce horas de Shanghai a San Francisco tiene sus inconvenientes, pero una de las ventajas es la posibilidad de ponerse al día con un montón de películas. Curiosamente, fue en estas circunstancias cuando finalmente vi la película de Al Gore Una verdad incómoda. Ya que me pareció persuasivo en los grandes puntos, permítanme mencionar sólo uno pequeño: el mito de la "rana en el agua hirviendo" que simplemente no desaparece. Todos los que han escuchado un discurso político conocen esta historia: Si pones una rana en una olla de agua hirviendo, salta enseguida. Pero si la pones en una olla de agua agradable y cómoda y luego enciendes el fuego, la rana se dejará hervir complacientemente. Una versión estándar del cuento está aquí. La razón por la que es tan popular en política es que es una forma fácil de advertir sobre la lenta erosión de las libertades o cualquier otra

Aprendizaje por refuerzo a nivel humano mediante el modelado, la exploración y la planificación basados en la teoría

https://arxiv.org/abs/2107.12544v1 El aprendizaje por refuerzo (RL) estudia cómo un agente llega a conseguir una recompensa en un entorno a través de interacciones a lo largo del tiempo. Los recientes avances en la RL de las máquinas han superado la experiencia humana en los juegos de mesa más antiguos del mundo y en muchos videojuegos clásicos, pero requieren grandes cantidades de experiencia para aprender con éxito: ninguno de los algoritmos actuales da cuenta de la capacidad humana para aprender tantas tareas diferentes, tan rápidamente. Aquí proponemos un nuevo enfoque para este reto, basado en una forma particularmente fuerte de RL basado en modelos que llamamos Aprendizaje de Refuerzo Basado en Teoría, porque utiliza teorías intuitivas similares a las humanas -modelos ricos, abstractos y causales de objetos físicos, agentes intencionales y sus interacciones- para explorar y modelar un entorno, y planificar eficazmente para lograr los objetivos de la tarea. Este enfoque se aplica

Posibles índices de colisión para los vehículos automatizados

https://journals.sagepub.com/doi/10.1177/03611981211009878 La mayoría de los fabricantes de automóviles y varias empresas tecnológicas están probando los vehículos automatizados (AV) en las vías públicas. Aunque se espera que la automatización de las tareas de conducción reduzca las colisiones, no hay consenso sobre el grado de seguridad que debe tener un AV antes de poder desplegarse. Un vehículo automático debería ser al menos tan seguro como un conductor medio, pero los índices nacionales de colisiones incluyen la conducción bajo los efectos del alcohol y la distracción, lo que significa que un vehículo automático que colisiona al ritmo medio se encuentra en un punto intermedio entre la conducción bajo los efectos del alcohol y la sobriedad. En este artículo se analizan los puntos de referencia de seguridad de los vehículos inteligentes desde tres perspectivas. En primer lugar, se utilizan los índices de colisión de los estudios de conducción natural para determinar el riesgo de col

Por qué es bueno para ti que proteja mi privacidad

https://www.bostonglobe.com/2021/07/28/opinion/why-its-good-you-if-i-protect-my-privacy/ ¿Por qué debería preocuparse por proteger su privacidad en Internet? La crítica de tecnología Carissa Véliz dice que no es sólo una cuestión de preferencia personal: Es un deber cívico. Véliz, profesora asociada del Instituto de Ética en la Inteligencia Artificial de la Universidad de Oxford, es autora de "La privacidad es poder: Why and How You Should Take Back Control of Your Data" (La privacidad es poder: por qué y cómo deberías recuperar el control de tus datos), que combina conocimientos filosóficos y consejos prácticos. Véliz afirma que la protección de la privacidad promueve algo parecido a la inmunidad digital de rebaño. Muchas empresas afirman que cuantos más datos tengan, mejores serán sus productos, pero Véliz sostiene que estos datos personales acaban transformándose en algo tóxico, que la sociedad debería regular como el amianto. El año pasado, The Economist calificó "La

No nos merecemos esto": una nueva aplicación somete a los cuidadores estadounidenses a vigilancia digital

https://www.theguardian.com/us-news/2021/jul/28/digital-surveillance-caregivers-artificial-intelligence Durante años, LeDanté Walker reservó el poco dinero extra que pudo encontrar para que, independientemente del problema de la cobertura de su seguro médico, su cuidador estuviera siempre atendido. Walker, que sufrió una lesión medular al salir despedido del asiento trasero de un coche en un accidente en 1997, depende de un cuidador a domicilio para muchas funciones cotidianas, desde el traslado de la cama a la silla de ruedas cada mañana, hasta ayudarle a ducharse, vestirse, ir al baño y preparar las comidas. Pero a principios de este año, Walker tuvo que echar mano de su fondo para imprevistos más que nunca, después de que los cheques de su cuidadora se quedaran sin 900 dólares de lo que se le debía. Walker le ofreció hasta el último céntimo que tenía ahorrado, prefiriendo pagar de su bolsillo para mantener la libertad y la estabilidad que le proporcionaba su trabajadora que ver cómo

Hacer medible: lo que Galileo no dijo sobre la subjetividad de los algoritmos

https://towardsdatascience.com/make-measurable-what-galileo-didnt-say-about-the-subjectivity-of-algorithms-8d1d324253da El aforismo de Galileo "Mide lo que puede ser medido, y haz medible lo que no puede serlo" resuena en casi todos los sistemas algorítmicos actuales. Pero en estos ecos resuena la realidad de que el acto de "hacer" algo medible nunca es puramente objetivo: es el resultado de decisiones subjetivas. Reconocer esto es clave para prevenir los daños que pueden crear los algoritmos. Es aparentemente intuitivo pensar que los "datos" sobre una cosa son una representación real de la misma. Por ejemplo, mi altura es de 1,70 metros y Londres es la capital del Reino Unido, dos datos que reflejan la realidad. Pero el reputado estadístico David Spiegelhalter nos recuerda que los datos "son casi siempre una medida imperfecta de lo que nos interesa". Para contar todos los árboles del planeta, señala, hay que definir primero lo que cuenta como ár

Los robots y la posibilidad de una atención humanista

https://link.springer.com/article/10.1007/s12369-021-00804-7 Es probable que los robots asistenciales realicen actividades de cuidado cada vez más sofisticadas que algunos considerarán reconfortantes y valiosas. Serán cada vez más parecidos a los humanos y a la vida. Este artículo aborda la cuestión conceptual: Aunque los robots puedan asistir y aliviar el sufrimiento de las personas, ¿pueden estas máquinas proporcionar cuidados humanistas? Podría decirse que el cuidado humanista es la forma de cuidado más humana y profunda que existe. Como tal, se puede pensar que muestra con mayor crudeza el abismo entre los cuidados humanos y los robóticos. El artículo sostiene que el cuidado humanista es, en efecto, una forma distintiva de cuidado "afectivo" que depende de ciertas características o aspectos exclusivamente humanos de nuestra humanidad que pueden proporcionar un profundo tipo de consuelo a las personas que sufren. A continuación, argumenta que existe un importante sentido c

PROYECTO DE TEXTO DE LA RECOMENDACIÓN SOBRE LA ÉTICA DE LA INTELIGENCIA ARTIFICIAL

https://unesdoc.unesco.org/ark:/48223/pf0000377897/PDF/377897eng.pdf.multi La presente Recomendación aborda las cuestiones éticas relacionadas con el ámbito de la Inteligencia Artificial en la medida en que entran en el mandato de la UNESCO. Plantea la ética de la IA como una reflexión normativa sistemática, basada en un marco holístico, global, multicultural y evolutivo de valores, principios y acciones interdependientes, que puede orientar a las sociedades a la hora de abordar de forma responsable los impactos conocidos y desconocidos de las tecnologías de la IA sobre los seres humanos, las sociedades y el medio ambiente y los ecosistemas, y les ofrece una base para aceptar o rechazar las tecnologías de la IA. Considera la ética como una base dinámica para la evaluación normativa y la orientación de las tecnologías de la IA, refiriéndose a la dignidad humana, el bienestar y la prevención de daños como brújula, y enraizada en la ética de la ciencia y la tecnología.2.Esta Recomendación

¿Quieres tus prestaciones de desempleo? Quizá tengas que someterte primero al reconocimiento facial

https://edition.cnn.com/2021/07/23/tech/idme-unemployment-facial-recognition/index.html Después de ser despedido de su trabajo como ingeniero de control de calidad de software en abril, Eric Watkins dijo que solicitó beneficios de desempleo en Colorado. Pero no ha recibido ni un céntimo de los 6.490 dólares a los que tenía derecho y no está seguro de cuándo los recibirá. Watkins, un autodenominado defensor de la privacidad, cuya madre y abuela destruían información personal cuando él crecía, dijo que no está dispuesto a completar el proceso de verificación de identidad que su estado exige ahora, que incluye hacer analizar su rostro por una empresa poco conocida llamada ID.me. Envió una carta muy dura a la agencia de desempleo de su estado criticando el servicio de ID.me, diciendo que no participaría en él debido a su preocupación por la privacidad. En respuesta, recibió una nota automática de la agencia: "Si no verifica su identidad pronto, su solicitud será descalificada y no se

¿Cómo afecta la automatización a sus perspectivas de empleo?

https://www.ifow.org/news-articles/how-does-automation-affect-your-employment-prospects ¿En qué medida afecta la automatización de su trabajo a sus perspectivas de empleo? Aproximadamente la mitad de los puestos de trabajo de EE.UU. podrían correr el riesgo de ser automatizados. Sin embargo, las oportunidades de empleo de un trabajador no dependen únicamente del número de puestos de trabajo disponibles en su ocupación actual, sino también de la disponibilidad de puestos de trabajo que puede solicitar en otras ocupaciones: su "movilidad ocupacional". Nuestro reciente estudio sugiere que las posibilidades de transición son tan importantes como el riesgo de automatización. Por ejemplo, según estimaciones anteriores, es probable que los técnicos estadísticos sean sustituidos por la automatización. Sin embargo, si los técnicos estadísticos se vieran desplazados, lo más probable es que sus habilidades actuales les permitieran hacer la transición a otros trabajos relacionados con la

Descubrir características universales: Cómo mejora la formación adversarial la transferibilidad adversaria

https://openreview.net/pdf?id=tzModtpOW7l Los ejemplos adversos para las redes neuronales son se sabe que son transferibles: los ejemplos optimizados para ser clasificados erróneamente por una red "origen" suelen ser clasificados erróneamente por otras redes "destino". En este caso, demostramos que el entrenamiento de la red de origen para que sea "ligeramente robusta" -es decir, robusta a los ejemplos adversos de pequeña magnitud- mejora sustancialmente mejora la transferibilidad de los ataques dirigidos, incluso entre arquitecturas tan diferentes como las redes neuronales convolucionales y los transformadores. De hecho demostramos que estos ejemplos adversarios pueden transferir características de la capa de representación (penúltima) sustancialmente mejor que los ejemplos adversarios generados con redes no robustas. Argumentamos que este resultado apoya una hipótesis no intuitiva: las redes ligeramente robustas presentan características universales, que

El futuro del trabajo: más allá del bossware y de los robots asesinos de empleos

https://hai.stanford.edu/news/future-work-beyond-bossware-and-job-killing-robots La conversación pública sobre el impacto de la IA en el mercado laboral suele girar en torno a la posibilidad de que las máquinas, cada vez más inteligentes, desplacen o destruyan puestos de trabajo. La expresión económica que se utiliza para referirse a este fenómeno es "desempleo tecnológico". Se presta menos atención a otro problema importante: la deshumanización de la mano de obra por parte de las empresas que utilizan lo que se conoce como "bossware", es decir, plataformas digitales basadas en IA o programas de software que controlan el rendimiento de los empleados y el tiempo que dedican a sus tareas. Para disuadir a las empresas tanto de la sustitución de puestos de trabajo por máquinas como del despliegue de bossware para supervisar y controlar a los trabajadores, tenemos que cambiar los incentivos en juego, dice Rob Reich, profesor de ciencias políticas en la Facultad de Humani

Cuando los agentes artificiales mienten, difaman y defraudan, ¿quién tiene la culpa?

  https://hai.stanford.edu/news/when-artificial-agents-lie-defame-and-defraud-who-blame La película Robot y Frank imagina un futuro cercano en el que se pueden comprar robots para que actúen como cuidadores y compañeros en casa. El hijo de Frank le compra un robot, y éste no tarda en darse cuenta de que puede contar con su ayuda para cometer robos de gatos. El robot empieza a mostrar creatividad e iniciativa en estos actos delictivos, y Frank sufre demencia. ¿Quién es el responsable último de estas violaciones de la ley? Los expertos en robótica e inteligencia artificial tendrán que suspender la creencia para disfrutar de Robot y Frank: el robot tiene capacidades que seguirán siendo puramente de ciencia ficción durante algún tiempo. Pero los continuos avances en el campo de la inteligencia artificial hacen que merezca la pena considerar una cuestión provocativa que puede adquirir mayor relevancia práctica en el futuro: ¿Cómo reaccionaríamos, como individuos y como sociedad, ante un age

4 predicciones para el futuro del trabajo

https://www.weforum.org/agenda/2017/12/predictions-for-future-of-work/ Basándome tanto en mis experiencias durante 2017, como en libros perspicaces que he leído, aquí están mis cuatro predicciones para el futuro del trabajo: 1. La IA y la robótica crearán más puestos de trabajo, no un desempleo masivo, siempre que guiemos la innovación de forma responsable La cuestión de si la inteligencia artificial se alzará y tomará el relevo es objeto de un debate cada vez más intenso. La IA es "nuestra mayor amenaza existencial" para la humanidad, afirma el líder tecnológico Elon Musk. Pero la ciencia ficción está llena de historias sobre máquinas que usurpan a los humanos. No es una noción respaldada por la historia o los datos. Como debatí a principios de este año, el impacto de la IA en el futuro no supone el fin del empleo. Al fin y al cabo, las máquinas no se crean a sí mismas. Más bien, depende de nosotros guiar la innovación de forma responsable. Esto significa abrir nuevas ventan

Daniel Susskind: "En el futuro serás la persona que compita con las máquinas por un trabajo o quien las diseñe y opere"

Imagen
https://www.infobae.com/tendencias/innovacion/2019/03/30/daniel-susskind-en-el-futuro-seras-la-persona-que-compita-con-las-maquinas-por-un-trabajo-o-quien-las-disene-y-opere/ El  avance de las nuevas tecnologías  se puede apreciar en cada sector social y empresarial en el que querramos poner la mirada. Las grandes empresas promotoras y productoras de trabajo estiman que muchos de ellos se destruirán con la llegada de las máquinas (robots, inteligencia artificial, etc), con mayor foco en aquellos puestos que requieren trabajo físico. Una de las mejores maneras de anticipar la  llegada de la automatización laboral , que ya es una realidad en varias empresas, es escuchar a los expertos analistas que explican cómo será el futuro del trabajo. Daniel Susskind es investigador de la Universidad de Oxford y especialista en empleos del futuro Daniel Susskind,  investigador de la Universidad de Oxford, es uno de ellos y estuvo presente en Buenos Aires, donde fue invitado a disertar en un seminari

El futuro del trabajo

https://www.ucc.edu.ar/noticiasucc/el-futuro-del-trabajo/ En el contexto actual en el que vivimos, nos vimos de un día a otro enfrentados a un importante cambio respecto a las formas tradicionales de trabajo. Una nueva modalidad que sin duda debió darse más gradualmente, pero que llegó para quedarse: el trabajo remoto; más eficiente en términos económicos y con la potencialidad de ser igual o más productivo que trabajar desde la oficina, siempre que se fomente y desarrolle la capacidad adaptativa de las personas.  El teletrabajo comenzó a desarrollarse aproximadamente en 1990, y ha evolucionado desde entonces, logrando mejorar la eficiencia del tiempo dedicado por cada persona, gracias a la eliminación o reducción del tiempo de viaje desde la casa a la oficina; la descentralización las zonas de trabajo (centros de oficinas); y la virtualización de las prácticas laborales. El trabajo por objetivos y no por horas, provee al empleado mayor autonomía,  productividad y satisfacción a nivel

¿La bondad hacia los robots conduce a la virtud? Una respuesta al argumento de asimetría de Sparrow

https://www.readcube.com/articles/10.1007/s10676-021-09604-z ¿El comportamiento cruel hacia los robots conduce al vicio, mientras que el comportamiento amable no conduce a la virtud? Este artículo presenta una respuesta crítica al argumento de Sparrow de que existe una asimetría en la forma en que (deberíamos) pensar sobre la virtud y los robots. Se discute hasta qué punto deberíamos alabar la virtud en contraposición al vicio, cómo se relaciona la virtud con el conocimiento práctico y la sabiduría, cuánta ilusión se necesita para que sea una barrera para la virtud, la relación entre la virtud y las consecuencias, la relevancia moral del requisito de realidad y las diferentes maneras en que se puede tratar con él, el riesgo de sesgo antropocéntrico en esta discusión, y los supuestos epistemológicos subyacentes y las cuestiones políticas. Esta respuesta no sólo es relevante para el argumento de Sparrow o para la ética de los robots, sino que también toca cuestiones centrales de la ética

El reconocimiento facial "racista" suscita preocupaciones éticas en Rusia

https://news.trust.org/item/20210705014850-6gwm1/ Desde el escaneo del rostro de los residentes para permitirles entrar en su edificio hasta la detección de sospechosos por parte de la policía en una multitud, el auge del reconocimiento facial va acompañado de un creciente coro de preocupación por los usos poco éticos de la tecnología. Un informe publicado el lunes por investigadores estadounidenses en el que se demuestra que empresas rusas de reconocimiento facial han creado herramientas para detectar la raza de una persona ha suscitado el temor de los grupos de derechos digitales, que describen la tecnología como "hecha a propósito para la discriminación". Las guías para desarrolladores y los ejemplos de código desvelados por la empresa de investigación de videovigilancia IPVM muestran que el software anunciado por cuatro de las mayores empresas rusas de análisis facial puede utilizar la inteligencia artificial (IA) para clasificar los rostros en función de su etnia o raza

El auge de la maquinaria de vigilancia estatal de China

https://lithub.com/the-rise-of-chinas-state-surveillance-machinery/ Irfan era un trabajador tecnológico de unos 30 años que procedía de Urumqi, la capital regional de Xinjjiang y centro comercial del norte de Xinjiang, donde ejecutó proyectos de vigilancia masiva hasta que dejó su trabajo en 2015. Huyó de Xinjiang en 2018 y se instaló en Turquía. Al principio, Irfan había tenido problemas para encontrar trabajo en la pobre región de Urumqi. Muchos de los mejores puestos de trabajo iban a parar a inmigrantes chinos han que dejaban de lado a los uigures locales. "Pero tenía un amigo que tenía acceso al alcalde de Urumqi", explicó Irfan. "Me hizo una llamada. Y entonces la empresa de telecomunicaciones se puso en contacto conmigo en 2007 con una oferta. Necesitaban un director de informática que ayudara a crear uno de los primeros sistemas de vigilancia de la zona". En su nuevo trabajo, Irfan tuvo acceso a dos lugares clave: la oficina local de seguridad pública, donde

Huella digital

https://reallifemag.com/bad-metaphors-digital-footprint/ "La elección es tuya", declara una alegre narradora femenina. Repite esta frase después de cada pregunta: ¿Puede tu huella digital contribuir a tu reputación online? Una vez que has compartido algo en línea, ¿puedes simplemente borrarlo si así lo decides? La música ominosa y los efectos de sonido dramáticos implican que hay mucho en juego. Elige correctamente, o de lo contrario. Estas preguntas están dispersas en un curso online llamado "Huellas digitales", desarrollado por la organización sin ánimo de lucro Internet Society (ISOC) para ayudar a los usuarios de Internet a "gestionar mejor [su] identidad digital". La idea es clara: reducir la huella digital es cuestión de tomar buenas decisiones. El curso hace hincapié en la responsabilidad personal, a la vez que explica cómo los diseños tecnológicos, las normas sociales y los incentivos económicos desafían la capacidad de los usuarios individuales pa

El estado de la IA en 10 gráficos

https://hai.stanford.edu/news/state-ai-10-charts Esta semana, el HAI de Stanford ha publicado su Índice de IA 2021. El índice es un programa independiente desarrollado por un equipo interdisciplinario de HAI en colaboración con el mundo académico, la industria y el gobierno. Cada año analiza el impacto y el progreso de la IA, analizando y destilando patrones sobre el impacto de la IA en todo, desde las economías nacionales hasta el crecimiento del empleo, la diversidad y la investigación. Consulte el informe para conocer en profundidad lo que ha sucedido en el sector este último año, o bien recorra algunos de los aspectos más destacados aquí.  Imagen El gráfico muestra que en Singapur se produjo un fuerte crecimiento de los puestos de trabajo de IA. La demanda de mano de obra para la IA en seis países cubiertos por los datos de Burning Glass ha crecido significativamente en los últimos siete años. Estados Unidos es el único país de los seis que registró una disminución en su proporción

Hemos probado las herramientas de entrevista de IA. Esto es lo que hemos encontrado.

https://www.technologyreview.com/2021/07/07/1027916/we-tested-ai-interview-tools/ Después de más de un año de la pandemia del covid-19, millones de personas están buscando empleo en Estados Unidos. Los programas de entrevistas basados en la IA afirman que ayudan a los empresarios a cribar las solicitudes para encontrar a las personas más adecuadas para el puesto. Las empresas especializadas en esta tecnología informaron de un aumento del negocio durante la pandemia. Pero a medida que aumenta la demanda de estas tecnologías, también aumentan las dudas sobre su precisión y fiabilidad. En el último episodio del podcast de MIT Technology Review "In Machines We Trust", probamos el software de dos empresas especializadas en entrevistas de trabajo con IA, MyInterview y Curious Thing. Y descubrimos variaciones en las predicciones y en las puntuaciones de coincidencia con el empleo que suscitan dudas sobre qué es exactamente lo que evalúan estos algoritmos. Conocerte MyInterview mide

La UE regula la IA pero se olvida de proteger nuestra mente

https://europeanlawblog.eu/2021/07/07/the-eu-regulates-ai-but-forgets-to-protect-our-mind/ Tras la publicación de la propuesta de la Comisión Europea de un Reglamento sobre Inteligencia Artificial (Ley de IA, en adelante: AIA), en abril de 2021, varios comentaristas han planteado preocupaciones o dudas sobre dicho proyecto. En particular, el 21 de junio, la Junta Europea de Protección de Datos (JEPD) y el Supervisor Europeo de Protección de Datos (SEPD) publicaron un dictamen conjunto sobre la Ley de Inteligencia Artificial, en el que sugerían numerosos cambios en la propuesta de la Comisión Europea. Consideramos que la AIA es uno de los intentos más avanzados y completos de regular la IA en el mundo. Sin embargo, coincidimos con la JEPD y el SEPD en que la AIA, en su versión actual, presenta varias deficiencias. Identificamos tres áreas principales en las que es necesario introducir modificaciones: (i) la regulación del reconocimiento de emociones, (ii) la regulación de los sistemas d

La pandemia de COVID-19 y la brecha de confianza tecnológica

  https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3874152 La industria y el gobierno intentaron utilizar las tecnologías de la información para responder a la pandemia de COVID-19, pero el uso de Internet como herramienta para la vigilancia de la enfermedad, los mensajes de salud pública y la logística de las pruebas resultó ser una decepción. ¿Por qué no fueron más eficaces estos esfuerzos? Este ensayo sostiene que los esfuerzos de la industria y el gobierno para aprovechar la tecnología estaban condenados al fracaso porque las plataformas tecnológicas han fracasado en las últimas décadas a la hora de hacer que sus herramientas sean dignas de confianza, y los legisladores han hecho poco para hacer que estas empresas rindan cuentas. Las personas no pueden confiar en las interfaces con las que interactúan, en los dispositivos que utilizan y en los sistemas que alimentan los servicios de las empresas tecnológicas. Este ensayo explora estos males preexistentes de la privacidad que han

¿Puede la inteligencia artificial calificar su próximo examen?

https://www.nytimes.com/2021/07/20/technology/ai-education-neural-networks.html Esta primavera, Philips Pham fue una de las más de 12.000 personas de 148 países que tomaron una clase en línea llamada Code in Place. Dirigido por la Universidad de Stanford, el curso enseñaba los fundamentos de la programación informática. A las cuatro semanas, Pham, un estudiante de 23 años que vive en el extremo sur de Suecia, se abrió camino a través de la primera prueba, tratando de escribir un programa que pudiera dibujar ondas de pequeños diamantes azules a través de una cuadrícula en blanco y negro. Varios días después, recibió una crítica detallada de su código. Aplaudía su trabajo, pero también señalaba un error. "Parece que tienes un pequeño error", decía la crítica. "Tal vez se está topando con la pared después de dibujar la tercera onda". El comentario era justo lo que el Sr. Pham necesitaba. Y vino de una máquina. Durante esta clase en línea, un nuevo tipo de inteligencia