Entradas

Mostrando entradas de 2022

Meaningful human control: actionable properties for AI system development

https://link.springer.com/article/10.1007/s43681-022-00167-3?s=03#Sec3 Resumen ¿Cómo pueden los seres humanos mantener el control de los sistemas basados en la inteligencia artificial (IA) diseñados para realizar tareas de forma autónoma? Estos sistemas son cada vez más omnipresentes, lo que genera ventajas, pero también situaciones indeseables en las que la responsabilidad moral de sus acciones no puede atribuirse adecuadamente a ninguna persona o grupo en particular. Se ha propuesto el concepto de control humano significativo para abordar las lagunas de responsabilidad y mitigarlas estableciendo condiciones que permitan atribuir adecuadamente la responsabilidad a los seres humanos; sin embargo, todavía no existen requisitos claros para los investigadores, diseñadores e ingenieros, lo que dificulta el desarrollo de sistemas basados en la IA que permanezcan bajo un control humano significativo. En este artículo abordamos la brecha existente entre la teoría filosófica y la práctica de l

Andrew Ng predicts the next 10 years in AI

https://venturebeat.com/2022/03/21/andrew-ng-predicts-the-next-10-years-in-ai/ Andrew Ng Estamos encantados de volver a traer Transform 2022 en persona el 19 de julio y virtualmente del 20 al 28 de julio. Únase a los líderes de la IA y de los datos para asistir a charlas interesantes y a emocionantes oportunidades de establecer contactos. Inscríbase hoy mismo. ¿Alguna vez ha sentido que estaba harto de su línea de trabajo actual y quería cambiar de marcha? Si es así, no está solo. Sin embargo, además de participar en la Gran Dimisión, también hay enfoques menos radicales, como el que está adoptando Andrew Ng. Ng, una de las figuras más destacadas de la IA, es fundador de LandingAI y DeepLearning.AI, copresidente y cofundador de Coursera, y profesor adjunto de la Universidad de Stanford. También fue jefe científico de Baidu y fundador del proyecto Google Brain. Sin embargo, su prioridad actual ha cambiado, pasando de los "bits a las cosas", como él dice. Omniverso de Nvidia: C

La IA puede predecir la raza de las personas a partir de imágenes de rayos X, y los científicos están preocupados

https://www.sciencealert.com/ai-can-predict-people-s-race-from-medical-images-and-scientists-are-concerned Los modelos de aprendizaje profundo basados en la inteligencia artificial pueden identificar la raza de alguien solo a partir de sus radiografías, según ha revelado una nueva investigación, algo que sería imposible para un médico humano que mirara las mismas imágenes. Los resultados plantean algunas cuestiones preocupantes sobre el papel de la IA en el diagnóstico, la evaluación y el tratamiento médicos: ¿podría el software informático aplicar involuntariamente un sesgo racial al estudiar imágenes como estas? Tras haber entrenado su IA con cientos de miles de imágenes de rayos X etiquetadas con detalles de la raza del paciente, un equipo internacional de investigadores sanitarios de EE.UU., Canadá y Taiwán probó su sistema con imágenes de rayos X que el software informático no había visto antes (y del que no tenía información adicional). La IA pudo predecir la identidad racial del

Mastercard lanza el sistema "smile to pay" en medio de la preocupación por la privacidad

https://www.theguardian.com/technology/2022/may/17/mastercard-launches-smile-to-pay-amid-privacy-concerns?CMP=share_btn_tw Mastercard está poniendo en marcha un controvertido programa que permitirá a los compradores pagar en la caja con una simple sonrisa o un gesto de la mano, en su intento de hacerse con una parte del mercado de la biometría, de 18.000 millones de dólares (14.400 millones de libras). Aunque la tecnología de reconocimiento facial ha suscitado desde hace tiempo las dudas de los grupos de defensa de los derechos civiles, el gigante de los pagos ha declarado que sigue adelante con un programa de pago biométrico que, según afirma, acelerará los pagos, reducirá las colas y proporcionará más seguridad que una tarjeta de crédito o débito estándar. "Una vez inscritos, no es necesario ralentizar la cola de la caja buscando en los bolsillos o en el bolso", dijo Mastercard. "Los consumidores pueden simplemente comprobar la factura y sonreír a una cámara o pasar la

Una auditoría de 9 algoritmos utilizados por el Gobierno holandés

https://english.rekenkamer.nl/publications/reports/2022/05/18/an-audit-of-9-algorithms-used-by-the-dutch-government El uso responsable de los algoritmos por parte de los organismos públicos es posible, pero no siempre es así en la práctica. El Tribunal de Cuentas de los Países Bajos descubrió que 3 de los 9 algoritmos que auditó cumplían todos los requisitos básicos, pero los otros 6 no lo hacían y exponían al gobierno a diversos riesgos: desde el control inadecuado del rendimiento y el impacto del algoritmo hasta el sesgo, la filtración de datos y el acceso no autorizado.

El tecno-optimismo: Un análisis, una evaluación y una modesta defensa

https://philpapers.org/archive/DANTAA-8.pdf ¿Qué es el tecno-optimismo y cómo se puede defender? Aunque los puntos de vista tecnooptimistas son ampliamente adoptados y criticados, ha habido pocos intentos de analizar sistemáticamente lo que significa ser tecnooptimista y cómo se puede defender este punto de vista. Este artículo trata de subsanar esta carencia proporcionando un análisis y una evaluación exhaustivos del tecno-optimismo. Se argumenta que el tecno-optimismo es una postura plural que se presenta en formas débiles y fuertes. Éstas varían en función de una serie de dimensiones clave, pero cada una de ellas comparte la opinión de que la tecnología desempeña un papel fundamental a la hora de garantizar que lo bueno prevalezca sobre lo malo. Sea cual sea su fuerza, para defender esta postura hay que desarrollar un argumento con cuatro premisas clave. Cada una de estas premisas es muy controvertida y puede ser objeto de varias críticas. El documento analiza en detalle cinco de es

Estados Unidos advierte de la discriminación que supone el uso de la inteligencia artificial para seleccionar a los candidatos a un puesto de trabajo

https://www.npr.org/2022/05/12/1098601458/artificial-intelligence-job-discrimination-disabilities?s=03 El gobierno federal dijo el jueves que la tecnología de inteligencia artificial para seleccionar nuevos candidatos a un puesto de trabajo o supervisar la productividad de los trabajadores puede discriminar injustamente a las personas con discapacidad, enviando una advertencia a los empleadores de que las herramientas de contratación comúnmente utilizadas podrían violar las leyes de derechos civiles. El Departamento de Justicia de Estados Unidos y la Comisión para la Igualdad de Oportunidades en el Empleo emitieron conjuntamente una guía para que los empleadores tengan cuidado antes de utilizar las populares herramientas algorítmicas destinadas a agilizar el trabajo de evaluación de los empleados y las perspectivas de empleo, pero que también podrían infringir la Ley de Estadounidenses con Discapacidades. "Estamos haciendo sonar una alarma con respecto a los peligros vinculados a

Artificio e Inteligencia

https://techpolicy.press/artifice-and-intelligence/?s=03 Las palabras importan. A partir de hoy, el Centro de Privacidad dejará de utilizar los términos "inteligencia artificial", "IA" y "aprendizaje automático" en nuestro trabajo para exponer y mitigar los daños de las tecnologías digitales en la vida de las personas y las comunidades. Trataré de explicar lo que está en juego para nosotros en esta decisión con referencia al documento fundacional de Alan Turing, Computing Machinery and Intelligence, que es, por supuesto, más famoso por su descripción de lo que el propio documento llama "el juego de imitación", pero que ha llegado a ser conocido popularmente como "la prueba de Turing". En el juego de imitación participan dos personas (una de las cuales adopta el papel de "interrogador") y un ordenador. El objetivo es que el interrogador, separado físicamente del otro jugador y del ordenador, intente discernir mediante una serie

La nueva ciencia de la inteligencia alternativa

https://garymarcus.substack.com/p/the-new-science-of-alt-intelligence?s=03 Durante muchas décadas, parte de la premisa de la IA fue que la inteligencia artificial debía inspirarse en la inteligencia natural. John McCarthy, uno de los cofundadores de la IA, escribió artículos pioneros sobre por qué la IA necesitaba el sentido común; Marvin Minsky, otro de los cofundadores del campo de la IA, escribió un libro en el que se analizaba la mente humana en busca de inspiración y pistas sobre cómo construir una mejor IA. Herb Simon ganó el Premio Nobel de Economía del Comportamiento. Uno de sus libros clave se titulaba Models of Thought (Modelos de pensamiento), cuyo objetivo era explicar que "los lenguajes informáticos recién desarrollados expresan teorías de procesos mentales, de modo que los ordenadores pueden simular el comportamiento humano previsto". A una gran parte de los investigadores actuales de la IA, o al menos a los que están en el poder, no les importa (hasta donde yo

Cómo la minería de Bitcoin devastó esta ciudad de Nueva York

https://www.technologyreview.com/2022/04/18/1049331/bitcoin-cryptocurrency-cryptomining-new-york/?s=03 La criptodivisa se crea mediante ordenadores que resuelven complicadas ecuaciones matemáticas, un proceso que despegó después de que una empresa china llamada Bitmain empezara a vender en 2016 una máquina con circuitos integrados de aplicación específica que permitía realizar esta computación especializada mucho más rápidamente. "Casi de la noche a la mañana", dice Colin Read, profesor de economía y finanzas en la Universidad Estatal de Nueva York en Plattsburgh, "comenzó una carrera armamentística de criptominería". Publicidad Cada transacción de Bitcoin consume 1.173 kilovatios-hora La gente comenzó a buscar en el mundo fuentes de energía baratas para hacer funcionar grandes granjas de minería de Bitcoin utilizando estos circuitos. La criptomoneda devora notoriamente la electricidad; cada transacción de Bitcoin consume 1.173 kilovatios-hora, más de lo que un esta

Las amenazas de la IA para el empleo y la felicidad humana son reales Pero el caos laboral a corto plazo dará paso a la prosperidad a largo plazo, afirma el experto en IA Kai-Fu Lee

https://spectrum.ieee.org/kai-fu-lee-ai-jobs El reputado informático y experto en IA Kai-Fu Lee ve probable que se produzcan trastornos en los próximos 15 o 20 años, debido a que los sistemas "inteligentes" crearán puestos de trabajo en campos para los que los trabajadores desplazados por la IA no están bien formados. EMPRESAS DE SINOVACIÓN      Hay un movimiento en marcha para contrarrestar las narrativas distópicas y apocalípticas de la inteligencia artificial. A algunas personas del sector les preocupa que el hecho de que se hable con frecuencia de la IA como un riesgo existencial para la humanidad esté envenenando al público en contra de la tecnología y están presentando deliberadamente relatos más esperanzadores. Uno de estos esfuerzos es un libro que se publicó el pasado otoño titulado AI 2041: Ten Visions for Our Future. El libro está coescrito por Kai-Fu Lee, un experto en IA que dirige la empresa de capital riesgo Sinovation Ventures, y Chen Qiufan, un autor de cienc

La ética de la IA es una preocupación. Aprenda cómo puede mantener la ética

https://learn.g2.com/ai-ethics?s=03 La inteligencia artificial (IA) se está convirtiendo en algo omnipresente en nuestra vida cotidiana.  Aunque no sea consciente de ello, la IA está integrada en muchas de las tecnologías que utiliza habitualmente. Cuando Netflix te recomienda un programa que podría gustarte, o Google te sugiere que reserves un viaje online desde el aeropuerto en el que sueles volar, la inteligencia artificial está involucrada. De hecho, el noventa y uno por ciento de las empresas actuales quieren invertir en IA. Aunque la IA pueda parecer extremadamente técnica, rozando el nivel de la ciencia ficción, en última instancia no es más que una herramienta. Y como cualquier herramienta, puede utilizarse para bien o para mal. Por lo tanto, a medida que la IA va asumiendo tareas cada vez más sofisticadas, es importante asegurarse de que existe un marco ético para su correcto uso. Profundicemos un poco más en las preocupaciones clave que rodean a la ética en la IA, algunos eje

Las autoridades de derechos civiles de EE.UU. advierten a los empresarios sobre la IA sesgada

https://apnews.com/article/technology-discrimination-artificial-intelligence-e1bcf4a2e7f1b671cbf3a44bc99b3656?s=03 El gobierno federal dijo el jueves que la tecnología de inteligencia artificial para seleccionar nuevos candidatos a un puesto de trabajo o supervisar la productividad de los trabajadores puede discriminar injustamente a las personas con discapacidad, enviando una advertencia a los empleadores de que las herramientas de contratación comúnmente utilizadas podrían violar las leyes de derechos civiles. El Departamento de Justicia de Estados Unidos y la Comisión para la Igualdad de Oportunidades en el Empleo emitieron conjuntamente una guía para que los empleadores tengan cuidado antes de utilizar las populares herramientas algorítmicas destinadas a agilizar el trabajo de evaluación de los empleados y las perspectivas de empleo, pero que también podrían infringir la Ley de Estadounidenses con Discapacidades. "Estamos haciendo sonar una alarma con respecto a los peligros v

Mira detrás de la cortina: No te dejes deslumbrar por los reclamos de "inteligencia artificial

https://www.seattletimes.com/opinion/look-behind-the-curtain-dont-be-dazzled-by-claims-of-artificial-intelligence/?s=03 Actualmente vivimos en la era de la "inteligencia artificial", pero no como las empresas que venden "IA" quieren hacer creer. Según Silicon Valley, las máquinas están superando rápidamente el rendimiento humano en una variedad de tareas, desde las mundanas, pero bien definidas y útiles, como la transcripción automática, hasta habilidades mucho más vagas como la "comprensión de lectura" y la "comprensión visual". Según algunos, estas habilidades representan incluso un rápido progreso hacia la "Inteligencia General Artificial", o sistemas que son capaces de aprender nuevas habilidades por sí mismos. Ante estas grandes afirmaciones, en última instancia falsas, necesitamos una cobertura mediática que exija responsabilidades a las empresas tecnológicas. Con demasiada frecuencia, lo que obtenemos en su lugar es un reportaje

Los grupos de derechos humanos exigen a Zoom que detenga los planes de la controvertida IA emocional

https://www.protocol.com/enterprise/zoom-emotion-ai-aclu-rights?s=03 La IA de las emociones utiliza la visión por ordenador y el reconocimiento facial, el reconocimiento del habla, el procesamiento del lenguaje natural y otras tecnologías de IA para capturar datos que representan las expresiones externas de las personas en un esfuerzo por detectar sus emociones, actitudes o sentimientos internos. "El uso de este software por parte de Zoom da crédito a la pseudociencia del análisis de las emociones que, según los expertos, no funciona. Las expresiones faciales pueden variar significativamente y a menudo están desconectadas de las emociones subyacentes de tal manera que incluso los humanos a menudo no son capaces de descifrarlas con precisión", continuaron. "Da la sensación de que son una empresa que está abierta a considerar todos estos factores", dijo Seeley George sobre Zoom. Dijo que Zoom no ha respondido a las solicitudes de la organización para discutir el tema.

La Agencia Tributaria holandesa fue abatida por la IA: ¿qué viene ahora?

https://spectrum.ieee.org/artificial-intelligence-in-government Cuando una familia de los Países Bajos quería reclamar la ayuda gubernamental para el cuidado de los niños, tenía que presentar una solicitud a la autoridad fiscal holandesa. Esas solicitudes pasaban por un algoritmo de autoaprendizaje, implantado inicialmente en 2013. En el flujo de trabajo de la Agencia Tributaria, el algoritmo examinaba primero las solicitudes en busca de indicios de fraude, y los humanos analizaban las solicitudes que marcaban como de alto riesgo. En realidad, el algoritmo desarrolló una pauta para etiquetar falsamente las reclamaciones como fraudulentas, y los atareados funcionarios sellaron las etiquetas de fraude. Así, durante años, la administración tributaria ordenó infundadamente a miles de familias que devolvieran sus reclamaciones, empujando a muchos a una deuda onerosa y destruyendo vidas en el proceso. "Cuando hay un impacto dispar, tiene que haber un debate social en torno a esto, si es

Cómo Aristóteles está solucionando los fallos del aprendizaje profundo

https://thegradient.pub/how-aristotle-is-fixing-deep-learnings-flaws/?s=03   ¿Quién puede negar la fría brisa que sopla en algunos sectores del mundo de la IA? Mientras muchos siguen disfrutando del glorioso verano que supone el ascenso del aprendizaje profundo, algunos perciben vientos otoñales que llevan consigo palabras de advertencia que todos hemos oído muchas veces, como "caja negra", "mala generalización", "frágil", "carente de razonamiento", "sesgada", "sin sentido común" e "insostenible". Tanto si nos dirigimos realmente a un nuevo invierno de la IA como si no, la inteligencia artificial tiene ciertamente un largo camino que recorrer para enfrentarse a la inteligencia humana. Sin embargo, la inteligencia humana no es un tema de investigación especialmente nuevo. Ha sido estudiada durante mucho tiempo por muchos de los intelectos más agudos de la humanidad, remontándose al menos 2300 años atrás a Aristóteles,

Cómo la IA está siendo transformada por los "modelos de fundación

https://www.thebulwark.com/how-ai-is-being-transformed-by-foundation-models/?s=03 En el mundo de la informática y la inteligencia artificial, pocos temas están generando tanto interés como el auge de los llamados "modelos fundacionales". Estos modelos pueden considerarse meta-AI -pero no Meta-AI, si se entiende lo que quiero decir-, sistemas que incorporan vastas redes neuronales con conjuntos de datos aún mayores. Son capaces de procesar mucho pero, lo que es más importante, son fácilmente adaptables a todos los ámbitos de la información, acortando y simplificando lo que hasta ahora era un laborioso proceso de entrenamiento de los sistemas de IA. Si los modelos fundacionales cumplen su promesa, la IA podría tener un uso comercial mucho más amplio. Para dar una idea de la escala de estos algoritmos, GPT-3, un modelo básico para el procesamiento del lenguaje natural publicado hace dos años, contiene más de 170.000 millones de parámetros, las variables que guían las funciones d

Cómo las IAs de generación de lenguaje podrían transformar la ciencia

https://doi.org/10.1038/d41586-022-01191-3 Los algoritmos de aprendizaje automático que generan un lenguaje fluido a partir de grandes cantidades de texto podrían cambiar la forma de hacer ciencia, pero no necesariamente para mejor, afirma Shobita Parthasarathy, especialista en gobernanza de tecnologías emergentes de la Universidad de Michigan en Ann Arbor. En un informe publicado el 27 de abril, Parthasarathy y otros investigadores tratan de anticipar las repercusiones sociales de las nuevas tecnologías de inteligencia artificial (IA) denominadas grandes modelos lingüísticos (LLM). Estos modelos pueden producir una prosa asombrosamente convincente, traducir entre idiomas, responder a preguntas e incluso producir código. Las empresas que los construyen -entre ellas Google, Facebook y Microsoft- pretenden utilizarlos en chatbots y motores de búsqueda, así como para resumir documentos. (Al menos una empresa, Ought, de San Francisco (California), está probando los LLM en la investigación

¿Podemos confiar en un chatbot como en un médico? Un estudio cualitativo para entender la aparición de la confianza hacia los chatbots de diagnóstico

https://www.sciencedirect.com/science/article/abs/pii/S1071581922000751?s=09 Los avances tecnológicos en el ámbito de los asistentes virtuales allanan el camino para implementar agentes autónomos complejos como los chatbots de diagnóstico. Partiendo del supuesto de que los chatbots son percibidos como herramientas tecnológicas y actores sociales a la vez, nuestro objetivo es crear una comprensión profunda de los procesos de creación de confianza hacia los chatbots de diagnóstico en comparación con la confianza en los profesionales médicos. Llevamos a cabo un experimento de laboratorio en el que los participantes interactuaron o bien con un chatbot de diagnóstico o bien con un profesional de la telemedicina adicional antes de entrevistarlos principalmente sobre los factores de creación de confianza. Identificamos numerosos factores relacionados con el software, el usuario y el entorno, y derivamos un modelo del proceso inicial de creación de confianza. Los resultados apoyan nuestra hipó

¿Capaz pero amoral? Comparación de la colaboración entre la IA y los expertos humanos en la toma de decisiones éticas

https://www.researchgate.net/publication/360250382_Capable_but_Amoral_Comparing_AI_and_Human_Expert_Collaboration_in_Ethical_Decision_Making Aunque la inteligencia artificial (IA) se aplica cada vez más en los procesos de toma de decisiones, las decisiones éticas plantean desafíos para las aplicaciones de la IA. Dado que los humanos no siempre pueden ponerse de acuerdo sobre lo que hay que hacer, ¿cómo se percibiría la toma de decisiones éticas por parte de los sistemas de IA y cómo se atribuiría la responsabilidad en la colaboración entre humanos e IA? En este estudio, investigamos cómo el tipo de experto (humano frente a IA) y el nivel de autonomía del experto (asesor frente a decisor) influyen en la confianza, la responsabilidad percibida y la fiabilidad. Descubrimos que los participantes consideran que los humanos son moralmente más dignos de confianza pero menos capaces que su equivalente en IA. Esto se refleja en la confianza de los participantes en la IA: las recomendaciones y d

Para que la IA sea justa, esto es lo que debemos aprender a hacer

https://doi.org/10.1038/d41586-022-01202-3 Para estimular las colaboraciones fructíferas, hay que diseñar mejor los mandatos y los enfoques. He aquí tres principios que los tecnólogos, los científicos sociales y las comunidades afectadas pueden aplicar juntos para conseguir aplicaciones de IA que tengan menos probabilidades de deformar la sociedad.

Los modelos de IA siguen siendo racistas, incluso con un entrenamiento más equilibrado

https://www.theregister.com/2022/05/01/ai_models_racist/?s=03 Los algoritmos de inteligencia artificial pueden estar cargados de prejuicios raciales, incluso si se entrenan con datos más representativos de diferentes grupos étnicos, según una nueva investigación. Un equipo internacional de investigadores analizó la precisión de los algoritmos a la hora de predecir diversos comportamientos cognitivos y mediciones de salud a partir de escáneres cerebrales de IRMf, como la memoria, el estado de ánimo e incluso la fuerza de agarre. Los conjuntos de datos médicos suelen estar sesgados: no se recogen a partir de una muestra lo suficientemente diversa, y ciertos grupos de la población quedan fuera o están mal representados.  No es de extrañar que los modelos predictivos que tratan de detectar el cáncer de piel, por ejemplo, no sean tan eficaces cuando se analizan los tonos de piel más oscuros que los más claros. Los conjuntos de datos sesgados suelen ser el origen de que los modelos de IA tam

¿Puede la IA escribir una estrategia?

https://www.veridia.nl/can-ai-write-a-strategy/ Lo interesante de este ejemplo es que ilustra cómo funcionan la IA y el análisis predictivo. Estamos familiarizados con el uso de la IA para responder a preguntas cerradas como "Las personas que compraron este artículo también compraron...", donde la respuesta deseada es seleccionar uno de un conjunto fijo de artículos. GPT-3 parece responder a la pregunta abierta más ambiciosa "Por favor, complete este texto de la forma que quiera", pero en realidad está respondiendo a una pregunta cerrada: "¿Qué palabras tienen más probabilidades de seguir estadísticamente las palabras de la entrada?" El tipo de respuesta que puede dar la IA tiene un límite, dado su diseño. GPT-3 no "sabe" nada, excepto la frecuencia de los patrones que se repiten en el texto que ha visto antes. Maneja el texto de forma indiscriminada y trata todo el texto de entrada como si tuviera el mismo valor. No generaliza el texto en reglas

La inteligencia artificial depende silenciosamente de que los trabajadores ganen 2 dólares por hora

https://www.sciencefocus.com/future-technology/artificial-intelligence-quietly-relies-on-workers-earning-2-per-hour/?s=03 A finales del siglo XVIII, un autómata maestro de ajedrez conocido como el "Turco Mecánico" recorrió Europa y Estados Unidos. Diseñada en 1770 por el inventor Wolfgang von Kempelen, la máquina parecía capaz de derrotar a cualquier jugador humano. Más tarde se descubrió que el Turco era en realidad una ilusión mecánica. Una marioneta vestida con ropas orientales, que ocultaba bajo su fez y sus ropajes a un maestro de ajedrez humano. El poeta estadounidense Edgar Allen Poe estaba tan convencido de la fraudulencia del Turco que escribió un ensayo para llamar la atención sobre el engaño. Un mecanismo predeterminado que venciera a una mente humana en el ajedrez era imposible, afirmaba Poe, ya que "ningún movimiento en el ajedrez sigue necesariamente a otro. De ninguna disposición particular de los hombres en un período del juego podemos predecir su disposi

El hombre que enseñó a pensar a las máquinas

https://www.theatlantic.com/magazine/archive/2013/11/the-man-who-would-teach-machines-to-think/309529/?s=03 "Depende de lo que se entienda por inteligencia artificial". Douglas Hofstadter está en una tienda de comestibles en Bloomington, Indiana, eligiendo los ingredientes de la ensalada. "Si alguien entendiera por inteligencia artificial el intento de entender la mente, o de crear algo parecido a un ser humano, podría decir -quizá no llegaría tan lejos- pero podría decir que este es uno de los únicos trabajos buenos que se han hecho". Hofstadter dice esto con una fácil deliberación, y lo dice así porque para él es una convicción incontrovertible que los proyectos más excitantes de la inteligencia artificial moderna, las cosas que el público ve tal vez como peldaños en el camino hacia la ciencia ficción -como Watson, el superordenador de IBM que juega al Jeopardy, o Siri, el asistente de Apple para el iPhone- tienen de hecho muy poco que ver con la inteligencia. Dur

Nunca lo vi venir

https://www.collaborativefund.com/blog/never-saw-it-coming/ La gente es muy buena para predecir el futuro, salvo las sorpresas, que suelen ser lo único que importa. Permítanme compartir una teoría que tengo sobre el riesgo y la cantidad de ahorro necesaria para compensarlo. El mayor riesgo es siempre lo que nadie ve venir. Si no ves venir algo, no estás preparado para ello. Y cuando no estás preparado para ello, su daño se amplifica cuando te golpea. Fíjate en las grandes noticias que mueven la aguja: Covid, el 11-S, Pearl Harbor, la Gran Depresión. Su rasgo común no es necesariamente que fueran grandes; es que fueron sorpresas, que prácticamente no estaban en el radar de nadie hasta que llegaron. Así es cada año. Será así todos los años. Este año ha sido así. The Economist -una revista que admiro- publica cada enero una previsión del año que viene. Su número de enero de 2020 no menciona ni una sola palabra sobre Covid. Su número de enero de 2022 no menciona ni una sola palabra sobre l

La vigilancia se ha hecho viral

https://lareviewofbooks.org/article/surveillance-gone-viral/ Ante el temor de que la pérdida de tiempo supusiera la pérdida de vidas al principio de la pandemia, los sectores público y privado actuaron con rapidez. En muchos casos, eligieron las tecnologías precipitadamente. En otros casos, parecen haber seleccionado herramientas de vigilancia que podían ser fácilmente reutilizadas. Lyon, un reputado estudioso de la vigilancia, sostiene que el mundo obtuvo dispositivos y sistemas plagados de problemas técnicos y sociales. Los problemas de transparencia, funcionalidad, salvaguardias y participación de las partes interesadas han creado desconfianza. Y ha habido indignación por los problemas de acceso que exacerban la desigualdad. Al igual que las pruebas y las vacunas no han estado disponibles para todos por igual, los sistemas de notificación de la exposición no han sido accesibles para todos porque no todos poseen teléfonos móviles (o modelos adecuados). Lyon examina estas cuestiones t

El futuro de la IA está repleto de promesas y de posibles escollos

https://venturebeat.com/2022/04/20/ais-future-is-packed-with-promise-and-potential-pitfalls/ Al tratarse de una ciencia tan joven, el aprendizaje automático (AM) se redefine constantemente.  Muchos consideran que los sistemas de IA autónomos y autosupervisados son el próximo gran disruptor, o definidor potencial, de la disciplina.  Entre los llamados "modelos fundacionales" se encuentran DALL-E 2, BERT, RoBERTa, Codex, T5, GPT-3, CLIP y otros. Ya se utilizan en áreas como el reconocimiento del habla, la codificación y la visión por ordenador, y están surgiendo en otras. Al evolucionar en capacidad, alcance y rendimiento, utilizan miles de millones de parámetros y son capaces de generalizar más allá de las tareas previstas. Por ello, inspiran asombro, ira y todo lo demás.

La cuestión de los proxies y las arquitecturas de elección. Por qué la legislación de la UE es importante para los sistemas de recomendación

https://www.frontiersin.org/articles/10.3389/frai.2022.789076/full?=&field=&journalName=Frontiers_in_Artificial_Intelligence&id=789076&s=03 Las recomendaciones están pensadas para aumentar las ventas o los ingresos por publicidad, ya que éstos son la primera prioridad de quienes pagan por ellas. Como los sistemas de recomendación hacen coincidir sus recomendaciones con las preferencias inferidas, no debería sorprendernos que el algoritmo optimice las preferencias lucrativas y, por tanto, coproduzca las preferencias que extrae. Esto se relaciona con los conocidos problemas de los bucles de retroalimentación, las burbujas de filtro y las cámaras de eco. En este artículo, discuto las implicaciones del hecho de que los sistemas informáticos trabajen necesariamente con apoderados cuando infieren recomendaciones y planteo una serie de preguntas sobre si los sistemas de recomendación hacen realmente lo que se dice que hacen, al tiempo que analizo las estructuras de incentivos

Los defectos de las políticas que exigen la supervisión humana de los algoritmos gubernamentales

https://www.sciencedirect.com/science/article/abs/pii/S0267364922000292?dgcid=author&s=03 A medida que los algoritmos se convierten en un componente influyente de la toma de decisiones de los gobiernos en todo el mundo, los responsables políticos han debatido cómo los gobiernos pueden obtener los beneficios de los algoritmos y, al mismo tiempo, evitar los daños de los mismos. Un mecanismo que se ha convertido en una pieza central de los esfuerzos globales para regular los algoritmos gubernamentales es exigir la supervisión humana de las decisiones algorítmicas. A pesar de la generalización de la supervisión humana, estas políticas se basan en un supuesto que no se ha cuestionado: que las personas son capaces de supervisar eficazmente la toma de decisiones de los algoritmos. En este artículo, analizo 41 políticas que prescriben la supervisión humana de los algoritmos gubernamentales y descubro que adolecen de dos defectos importantes. En primer lugar, la evidencia sugiere que las pe

Los peligros del aprendizaje automático en el diseño de nuevos productos químicos y materiales

https://www.nature.com/articles/s42256-022-00481-9?sf163926239=1&s=03 El aprendizaje automático está a punto de revolucionar la práctica de la química y la ciencia de los materiales. Ya se está utilizando el aprendizaje automático para encontrar nuevos compuestos farmacéuticos, incluso en la lucha contra la pandemia de COVID-19. Esto supone una gran promesa para el futuro, pero también un gran peligro. En este momento, se está prestando muy poca atención a los inconvenientes, como se señala en un reciente comentario de Urbina et al.1. Es fácil reconocer las ventajas del enfoque de aprendizaje automático para, por ejemplo, analizar la toxicidad de productos químicos y materiales, un área en la que trabajamos como equipo combinado de informáticos y químicos. En primer lugar, la necesidad es obvia si se tiene en cuenta que menos del 1% de las sustancias químicas registradas para uso comercial en Estados Unidos se han sometido a la caracterización de la toxicidad, ya sea para fines med

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

https://www.amacad.org/publication/multi-agent-systems-technical-ethical-challenges-functioning-mixed-group En el mundo informático actual, altamente interconectado y de red abierta, los agentes informáticos de la inteligencia artificial interactúan cada vez más en grupo entre sí y con las personas, tanto virtualmente como en el mundo físico. Los principales retos actuales de la IA consisten en determinar formas de construir sistemas de IA que funcionen de forma eficaz y segura para las personas y las sociedades en las que viven. Para incorporar el razonamiento sobre las personas, la investigación en sistemas multiagente ha generado cambios paradigmáticos en el diseño, los modelos y los métodos de los agentes informáticos, así como el desarrollo de nuevas representaciones de la información sobre los agentes y sus entornos. Estos cambios han planteado retos tanto técnicos como éticos y sociales. En este ensayo se describen los avances técnicos en las representaciones, la toma de decisio

¿Nos entienden los grandes modelos lingüísticos?

https://www.amacad.org/publication/do-large-language-models-understand-us Los grandes modelos lingüísticos (LLM) representan un gran avance en la inteligencia artificial y, en particular, hacia el objetivo de una inteligencia general artificial similar a la humana. Sin embargo, a veces se afirma que el aprendizaje automático es "sólo estadística" y que, por tanto, en esta gran ambición, el progreso de la IA es ilusorio. En este caso, yo opino lo contrario, que el aprendizaje automático tiene mucho que enseñarnos sobre la naturaleza del lenguaje, la comprensión, la inteligencia, la socialidad y la persona. En concreto: las estadísticas sí equivalen a la comprensión, en cualquier sentido falsable. Además, gran parte de lo que consideramos inteligencia es intrínsecamente dialógico, por tanto social; requiere una teoría de la mente. El aprendizaje de secuencias complejas y la interacción social pueden ser una base suficiente para la inteligencia general, incluyendo la teoría de l

Inteligencia artificial, ética humanista

https://www.amacad.org/publication/artificial-intelligence-humanistic-ethics La ética se ocupa de lo que significa vivir una vida floreciente y de lo que debemos moralmente a los demás. La mentalidad optimizadora que prevalece entre los informáticos y los economistas, entre otros poderosos actores, ha llevado a un enfoque centrado en la maximización de la satisfacción de las preferencias humanas, enfoque que ha adquirido una considerable influencia en la ética de la IA. Pero este utilitarismo basado en las preferencias está abierto a serias objeciones. Este ensayo esboza una ética alternativa, "humanista", para la IA que sea sensible a los aspectos del compromiso humano con la ética que a menudo se pasan por alto en el enfoque dominante. Se esbozan tres elementos de este enfoque humanista: su compromiso con una pluralidad de valores, su énfasis en la importancia de los procedimientos que adoptamos, no sólo de los resultados que producen, y la importancia que concede a la part

La dimensión moral de la toma de decisiones asistida por IA: Algunas perspectivas prácticas desde la primera línea

https://www.amacad.org/publication/moral-dimension-ai-assisted-decision-making-some-practical-perspectives-front-lines Este ensayo adopta un enfoque de ingeniería para garantizar que el despliegue de la inteligencia artificial no confunda los principios éticos, incluso en aplicaciones sensibles como la seguridad nacional. Existen técnicas de diseño en las tres partes de la arquitectura de la IA -algoritmos, conjuntos de datos y aplicaciones- que pueden utilizarse para incorporar importantes consideraciones morales. Por lo tanto, la novedad y la complejidad de la IA no pueden servir de excusa para que las empresas o los gobiernos obtengan resultados inmorales en su despliegue.