Entradas

Mostrando las entradas etiquetadas como *

El dolor pandémico está alimentando el realismo robótico

https://pando.com/2021/03/26/pandemic-pain-fueling-robo-realism/ La columnista del Financial Times Sarah O'Connor escribió recientemente el tipo de reflexión impulsada por la humildad que deseo que impregne la cobertura tecnológica. Ella comienza "Por qué me equivoqué al ser optimista acerca de los robots" con una confesión que no sorprenderá a nadie empapado en economía política, pero sin embargo es una dosis refrescante y honesta de realismo del cuarto poder. "Solía ​​ser un tecno-optimista", declara O'Connor. Pero ahora las tendencias de la robótica impulsadas por la pandemia se están enfocando, y es más difícil negar el poder aplastante del idealismo del capitalismo. O'Connor reconoce que "la deshumanización y la intensificación del trabajo" son peligros fundamentales.   Si bien no hay nada garantizado, la pandemia de coronavirus parece un punto de inflexión para el trabajo robótico Para empezar, el peligro de una infección viral está estim...

¿Un estrechamiento de la investigación de la IA?

https://arxiv.org/abs/2009.10385 La inteligencia artificial (IA) está siendo aclamada como el último ejemplo de tecnología de uso general que podría transformar la productividad y ayudar a abordar importantes desafíos sociales. Sin embargo, este resultado no está garantizado: un enfoque miope en los beneficios a corto plazo podría encerrar a la IA en tecnologías que resulten ser subóptimas a largo plazo. Las controversias recientes sobre el predominio de los métodos de aprendizaje profundo y los laboratorios privados en la investigación de IA sugieren que el campo puede ser cada vez más limitado, pero falta la base de evidencia. Buscamos abordar esta brecha con un análisis de la diversidad temática de la investigación de IA en arXiv, un sitio de preimpresiones ampliamente utilizado. Habiendo identificado 110,000 artículos de IA en este corpus, usamos el modelado de temas jerárquicos para estimar la composición temática de la investigación de IA, y esta composición para calcular varias ...

Cómo las imperfecciones sociales impulsan el sesgo en la inteligencia artificial

https://tribune.com.pk/story/2289098/how-societal-imperfections-drive-bias-in-artificial-intelligence A medida que la inteligencia artificial (IA) gana más sofisticación, se vuelve cada vez más difícil detectar y abordar sus sesgos inherentes. Esto se debe principalmente a la naturaleza autónoma de los sistemas emergentes de aprendizaje automático. La próxima generación de programas inteligentes está diseñada para desarrollar sus conocimientos sin depender de la experiencia humana o de un conjunto de conjuntos de datos seleccionados. De hecho, la próxima ola de software impulsado por IA es capaz de adaptarse a medida que interactúa con sus entornos y se apresura a anular lo que se aprendió inicialmente. De esa manera, la principal desviación del pasado es que su conocimiento se mejora constantemente para adaptarse a su entorno. En términos específicos, los algoritmos inteligentes, como el aprendizaje por refuerzo, permiten que una computadora modifique continuamente su comportamiento e...

Una IA descubre racismo involuntario en una prueba médica estándar

  En los últimos años, distintas investigaciones han demostrado que el aprendizaje profundo puede igualar el desempeño de expertos humanos a la hora de interpretar imágenes médicas para   la detección temprana del cáncer  y  el diagnóstico de enfermedades oculares . Pero también hay motivos para la cautela. Otra investigación ha señalado que el aprendizaje profundo tiende a  perpetuar la discriminación . Si   el sistema de atención médica ya está plagado de disparidades , las   apps   de aprendizaje profundo hechas sin cuidado podrían empeorar aún más la situación. Un nuevo artículo  publicado en  Nature Medicine  propone  una forma de desarrollar algoritmos médicos capaz de ayudar a revertirla desigualdad existente , en lugar de exacerbarla. Según el profesor asociado de la Universidad de California en Berkeley (EE. UU.) que supervisó la investigación, Ziad Obermeyer, la clave es dejar de entrenar los algor...

Por qué cobrar por sus datos es un mal negocio

 Una mala idea de privacidad que no morirá es el llamado "dividendo de datos", que imagina un mundo en el que las empresas tienen que pagarle para usar sus datos. ¿Suena demasiado bueno para ser verdad? Es. Seamos claros: que te paguen por tus datos (probablemente no más de un puñado de dólares como máximo) no solucionará el problema actual de la privacidad. Sí, un dividendo de datos puede sonar a primera vista como una forma de obtener algo de dinero extra y destinarlo a las empresas de tecnología. Pero esa línea de pensamiento está equivocada y se desmorona rápidamente cuando se aplica a la realidad actual de la privacidad. En realidad, el esquema de dividendos de datos perjudica a los consumidores, beneficia a las empresas y enmarca la privacidad como una mercancía más que como un derecho. https://www.eff.org/it/deeplinks/2020/10/why-getting-paid-your-data-bad-deal

Estrategia europea sobre inteligencia artificial: ¿estamos realmente fomentando el bien social?

La inteligencia artificial (IA) ya forma parte de nuestra vida diaria y está desempeñando un papel clave en la definición de la forma económica y social del futuro. En 2018, la Comisión Europea presentó su estrategia de IA capaz de competir en los próximos años con potencias mundiales como China y EE. UU., Pero confiando en el respeto de los valores y derechos fundamentales europeos. Como resultado, la mayoría de los Estados miembros han publicado su propia estrategia nacional con el objetivo de trabajar en un plan coordinado para Europa. En este artículo, presentamos un estudio en curso sobre cómo los países europeos se acercan al campo de la Inteligencia Artificial, con sus promesas y riesgos, a través de la lente de sus estrategias nacionales de IA. En particular, nuestro objetivo es investigar cómo los países europeos están invirtiendo en IA y en qué medida los planes establecidos pueden contribuir al beneficio de toda la sociedad. Este documento presenta los principales resultados...

¿CÓMO SABE QUE SU "IA" NO ES UN SER HUMANO?

 La exageración de la IA minimiza la contribución humana La exageración de la IA también es parte de historias que exageran las capacidades de la IA en el presente, cuando los humanos todavía están haciendo la mayor parte del trabajo; todos hemos oído hablar de los miles de trabajadores fantasma que etiquetan manualmente los datos para alimentar algoritmos. en pésimas condiciones de trabajo. Entonces, presentar algo como inteligencia de máquina cuando en realidad es inteligencia humana, también es deshonesto y desacredita a los humanos haciendo el trabajo real. https://mindmatters.ai/2020/12/how-do-you-know-that-your-ai-isnt-a-human-being/

Por qué la revolución de los vehículos autónomos se ha estancado

 Para 2021, según varias luminarias de Silicon Valley, políticos entusiastas y firmas de taxis líderes en los últimos años, los autos autónomos habrían estado cruzando durante mucho tiempo los EE. UU., Comenzarían a circular por las autopistas de Gran Bretaña y estarían listos para proporcionar robotaxis en Londres. Sin embargo, el 1 de enero no ha traído una revolución sin conductor. De hecho, en las últimas semanas de 2020, Uber, uno de los principales actores y supuestos beneficiarios, decidió aparcar sus planes para taxis autónomos, vendiendo su división autónoma a Aurora en un acuerdo por un valor de alrededor de $ 4 mil millones (£ 3 mil millones), aproximadamente la mitad. en qué se valoró en 2019. La decisión, protestó el director ejecutivo de Uber, no significó que la compañía ya no creyera en los vehículos autónomos. “Pocas tecnologías prometen tanto mejorar la vida de las personas con un transporte seguro, accesible y respetuoso con el medio ambiente”, dijo Dara Khosrows...

Sombra aquí, sombra allá: reconocimiento facial discriminatorio

  Un estudio mostró que el maquillaje (usado principalmente por las mujeres en la mayoría de sociedades)   reduce enormemente la precisión de los métodos de reconocimiento facial   comerciales y académicos. La razón es que los cosméticos no se han establecido como un parámetro en las bases de datos faciales disponibles públicamente. Una propuesta para desarrollar sistemas que sean robustos es mapear y correlacionar varias imágenes de la misma persona con y sin maquillaje. Estas soluciones también deben tener en cuenta las diferentes prácticas de maquillaje en las distintas culturas. Otro de los desafíos emergentes son las caras de las personas trans, especialmente durante los períodos de transición. Por ejemplo, saltó a los medios el caso de una conductora trans de Uber que tenía que viajar todos los días dos horas para ir a una oficina local de la compañía dado que no funcionaba con ella la  app  que solicita periódicamente a conductores que envíen  selfie...

Operacionalizando los Principios de ética de la IA

  La INTELIGENCIA ARTIFICIAL (IA) se ha convertido en parte de nuestro la vida cotidiana, desde la atención médica hasta la aplicación de la ley. Los desafíos éticos relacionados con la IA han crecido a un ritmo acelerado, desde el sesgo algorítmico y privacidad de datos para transparencia y rendición de cuentas. Como reacción directa a estos crecientes preocupaciones de problemas éticos, las organizaciones han estado publicando sus principios de IA para práctica (más de 100 series y en aumento). Sin embargo, la multiplicación de estos principios en su mayoría vagamente formulados no ha demostrado ser útil para orientar la práctica. Solo operacionalizando Los principios de la IA para la práctica ética pueden ayudamos a los informáticos, desarrolladores y diseñadores a detectar y pensar a través de cuestiones éticas y reconocer cuando un problema ético complejo requiere análisis experto en profundidad. Estos principios de IA operacionalizados para la práctica también ayudará a las o...

LA OSCURA CUESTIÓN DE LA SALUD DIGITAL

 Por ejemplo, los proponentes afirman con frecuencia que el objetivo de la salud digital es superar las desigualdades raciales y de género en los resultados de salud, así como proporcionar un acceso más amplio a la atención. Estas tecnologías —desde programas informáticos que hacen recomendaciones de tratamiento hasta auto-rastreadores que se llevan en la muñeca y aplicaciones para teléfonos inteligentes que registran los ciclos menstruales— prometen que podemos ir más allá de pasados ​​injustos y desiguales y distribuir mejor los recursos de atención médica en el futuro. Los impulsores de la industria nos harían creer que podemos lograr esto en un grado significativo con solo activar un algoritmo. De hecho, está sucediendo lo contrario: la salud digital está solidificando la brecha entre aquellos cuya salud se valora y aquellos cuya salud se ignora. Estas tecnologías revelan la importancia actual de lo que la socióloga Simone Browne podría llamar la "materia oscura" de la ec...

¡Necesitamos hablar sobre el engaño en robótica social!

 Aunque algunos autores afirman que el engaño requiere intención, nosotros argumentamos que puede haber engaño en la robótica social, se pretenda o no. Al centrarnos en el engañado en lugar del engañador, proponemos que se pueden crear creencias falsas en ausencia de intención. La evidencia de apoyo se encuentra tanto en ejemplos humanos como animales. En lugar de asumir que el engaño es incorrecto solo cuando se lleva a cabo para beneficiar al engañador, proponemos que el engaño en la robótica social es incorrecto cuando conduce a impactos dañinos en los individuos y la sociedad. La apariencia y el comportamiento de un robot pueden llevar a una sobreestimación de su funcionalidad o a una ilusión de sensibilidad o cognición que puede promover una confianza fuera de lugar y usos inapropiados, como el cuidado y compañía de los vulnerables. Consideramos la asignación de responsabilidad por el engaño dañino. Finalmente, sugerimos que los impactos dañinos podrían prevenirse mediante la ...

Los principales científicos informáticos debaten los próximos pasos para la IA en 2021

 La década de 2010 fue enorme para la inteligencia artificial, gracias a los avances en el aprendizaje profundo, una rama de la IA que se ha vuelto factible debido a la creciente capacidad de recopilar, almacenar y procesar grandes cantidades de datos. Hoy en día, el aprendizaje profundo no es solo un tema de investigación científica, sino también un componente clave de muchas aplicaciones cotidianas. Pero una década de investigación y aplicación ha dejado en claro que, en su estado actual, el aprendizaje profundo no es la solución final para resolver el siempre difícil desafío de crear IA a nivel humano. https://venturebeat.com/2021/01/02/leading-computer-scientists-debate-the-next-steps-for-ai-in-2021/

Por qué los robots bailarines son un problema realmente grande

 Así que nuestros amigos de Boston Dynamics están de vuelta, y no solo hace acto de presencia el ahora infame perro amarillo, también lo hacen dos robots humanoides y una especie de ... cosa ... jirafa ... con ruedas. Es autorreferencial, se da cuenta de que la gente le tiene miedo a los perros amarillos, trata de calmar algunas de esas preocupaciones y dice "entendemos que 2020 fue difícil, pero esto podría hacerte sonreír". No está mal marketing, eso. Pero como dije, quiero ver esto desde una perspectiva ética y dar un análisis mesurado. ¿Estás listo? Bien, aquí va: Odio esto. Solo un par de Bro-Bots bailando Eso no es exactamente lo que quiero decir; más precisamente, quiero expresar que esto es profundamente poco ético y lo odio. ¿Por qué no es ético? Pensemos en esto de varias maneras. La primera forma, y ​​la más sencilla, es pensar cínicamente, lo que equivaldría a decir que esto no es ético porque es un esfuerzo (y además transparente) convencer a las personas de que ...

entrevista con Karen Gregory sobre el futuro del trabajo post-covid

 Debido a esta intensificación y "extensificación" del trabajo, se siente más agotador, más riesgoso, más precario tanto para los trabajadores clave como para los que trabajan de forma remota. Me preocupan las personas que son padres y temo que tengamos una crisis de salud mental y bienestar en nuestras manos. Trabajar desde casa es realmente trabajar continuamente, hay muy poca distinción entre el día y el horario laboral. El trabajo debe realizarse junto con el trabajo básico de la vida, el trabajo doméstico que nunca termina ... Ninguno de nuestros sistemas sociales está configurado para la integración del trabajo doméstico y el trabajo con W mayúscula, y no pueden brindar el apoyo que los trabajadores necesitan ahora mismo. Sin poder enviar a los niños a la escuela o tener apoyo en la casa, la gente se ve atrapada en una situación insostenible y sin precedentes. https://sciencemediahub.eu/2020/12/23/an-experts-opinion-an-interview-with-karen-gregory-on-the-future-of-work-...

La IA ética no es lo mismo que la IA de confianza, y eso es importante

https://noticiasmoviles.com/la-ia-etica-no-es-lo-mismo-que-la-ia-fiable-y-esto-es-importante/ Las soluciones de inteligencia artificial (IA) se enfrentan a un mayor escrutinio debido a su capacidad para amplificar tanto las buenas como las malas decisiones. Más específicamente, por su propensión a exponer y aumentar los prejuicios y desigualdades sociales existentes. Entonces, es correcto que las discusiones sobre ética ocupen un lugar central a medida que aumenta la adopción de la IA. En sintonía con la ética surge el tema de la confianza. La ética son las reglas que rigen las decisiones que tomamos y las acciones que tomamos. Estas reglas de conducta reflejan nuestras creencias fundamentales sobre lo que es correcto y justo. La confianza, por otro lado, refleja nuestra creencia de que otra persona, o empresa, es confiable, tiene integridad y se comportará de la manera que esperamos. La ética y la confianza son conceptos discretos, pero a menudo se refuerzan mutuamente.

Contradicciones y sinsentidos de la Carta de Derechos Digitales del Gobierno

  Tanto las palabras de Artigas como el contenido y la forma de la carta han sido, sin embargo, cuestionadas por voces independientes en diferentes disciplinas. “Las cartas de derechos digitales hace tiempo que se están promoviendo en diferentes países. Nunca vas a liderar en algo si vas por detrás. No aporta absolutamente nada”, asegura Gemma Galdon, experta en ética de la tecnología y fundadora de Eticas Research Consulting y Fundación Eticas. Javier de la Cueva, abogado y profesor especializado en propiedad intelectual, tecnología e internet, va más allá: “Es una farsa. Pura propaganda”, asegura. “ Es tecnologista, contradictoria y crea incertidumbre legal ” dice Lorena Jaume-Palasí, fundadora de Ethical Tech Society y miembro del Consejo Asesor de Inteligencia Artificial de SEDIA. https://www.elespanol.com/invertia/disruptores-innovadores/politica-digital/espana/20201130/contradicciones-sinsentidos-carta-derechos-digitales-gobierno/539946777_0.html

Confianza pública y transparencia

 La innovación sostenible en la tecnología basada en datos depende de la creación y el mantenimiento de la confianza del público. Es evidente que hay un camino por recorrer para generar la confianza del público en los algoritmos, y el punto de partida obvio para esto es garantizar que los algoritmos sean confiables; en la revisión del CDEI sobre el sesgo en la toma de decisiones algorítmicas, analizamos una parte clave de esto. En la revisión, consideramos el papel que puede desempeñar la transparencia en la construcción de un entorno confiable y garantizar la equidad. Si bien esto es cierto en todos los sectores, el sector público tiene la responsabilidad particular de dar ejemplo de cómo debería ser una buena transparencia en el uso de algoritmos. El sector público toma muchas de las decisiones de mayor impacto que afectan a las personas, y esperamos que el sector público pueda justificar y evidenciar sus decisiones. Si bien una persona tiene la opción de optar por no utilizar un...

Libertad, flexibilidad, precariedad y vulnerabilidad en la economía colaborativa en África

 Para muchos de nosotros todavía atrapados en medio de una pandemia mundial, el concepto de un trabajo de oficina regular de nueve a cinco parece un pasado lejano. COVID 19, entre sus muchas lecciones sociales, ha puesto de manifiesto y ha acelerado la transformación digital del trabajo, donde el trabajo puede continuar realizándose en cualquier lugar, en cualquier momento, siempre que tengamos acceso inmediato a una computadora e Internet. Si bien el empleo a distancia basado en Internet puede ser un nuevo componente de nuestras vidas, el advenimiento del trabajo mediado digitalmente ha dejado su huella en África desde hace mucho tiempo. https://montrealethics.ai/between-a-rock-and-a-hard-place-freedom-flexibility-precarity-and-vulnerability-in-the-gig-economy-in-africa-research-summary/

EL LIBRO BLANCO FRANCÉS SOBRE SEGURIDAD INTERNA HACE VARIAS PROPUESTAS PARA EL USO DEL RECONOCIMIENTO FACIAL EN FRANCIA

 Un muy importante Libro Blanco sobre Seguridad Interior, publicado el 16 de noviembre de 2020 por el Ministerio del Interior francés, presenta varias propuestas para el uso de la Tecnología de Reconocimiento Facial (FRT) por parte de las autoridades públicas en Francia. El Libro Blanco sobre Seguridad Interior es un documento con visión de futuro, que contiene cerca de 200 propuestas, basadas en lo que denomina los “retos de seguridad interior” del siglo XXI. Sucede al anterior "Libro blanco sobre seguridad pública", publicado en 2011. El cuarto folleto del Libro Blanco de Seguridad Interior, titulado “Llevando al Ministerio del Interior a la Frontera Tecnológica”, aborda temas en torno a las nuevas tecnologías y dedica dos partes específicas al uso de FRT. Esta breve publicación presentará brevemente estas propuestas relacionadas con FRT, mientras que una publicación separada presentará otras propuestas relacionadas con la IA en el Libro Blanco. https://ai-regulation.com/fr...