Entradas

Mostrando entradas de octubre, 2021

Reconocimiento facial en las escuelas: sistemas desplegados en Europa y Estados Unidos en medio de la preocupación por la privacidad

https://www.biometricupdate.com/202110/facial-recognition-in-schools-systems-deployed-in-europe-and-the-us-amid-privacy-concerns Los nuevos sistemas de reconocimiento facial se están desplegando en los campus escolares de todo el mundo, mientras que otros se están retirando por motivos de privacidad. En Rusia, decenas de colegios están probando esta tecnología, mientras que en North Ayrshire (Reino Unido) se han suspendido pruebas similares después de que los activistas hicieran intervenir al organismo de control de la privacidad de datos del país. Además, los sistemas de biometría facial de PontoiD se han implantado en dos colegios de Brasil, y la Universidad de Wisconsin-Madison ha renovado recientemente su contrato de software de supervisión de exámenes con Honorlock. Las escuelas rusas prueban el control de acceso biométrico Según el director general de NtechLab, Andrei Telenkov, varias escuelas del país han estado probando el reconocimiento facial, especialmente para el control de

Vigilancia de los rostros: el presente y el futuro de la vigilancia facial inteligente

https://www.tandfonline.com/doi/full/10.1080/13600834.2021.1994220 En este artículo, analizamos los usos presentes y futuros de la vigilancia facial inteligente (IFS) en las fuerzas del orden. Presentamos un estudio de caso empírico y centrado en la ley sobre las tecnologías de reconocimiento facial automatizado (LFR) en vivo en la policía británica. En la primera parte, analizamos las opiniones de 26 agentes de policía de primera línea que exploran sus preocupaciones y su escepticismo actual sobre el LFR. Analizamos la reciente jurisprudencia del Reino Unido sobre el uso de LFR por parte de la policía, que plantea problemas en relación con los derechos humanos, la protección de datos y las leyes contra la discriminación. En la segunda parte, examinamos el optimismo de los agentes de primera línea sobre los usos futuros de la LFR y exploramos las formas emergentes de IFS, en concreto las tecnologías de IA emocional (EAI). Una de las principales novedades de este artículo es nuestro aná

El aprendizaje automático puede revolucionar la sanidad, pero también conlleva riesgos legales

https://www.healthcareitnews.com/news/machine-learning-can-revolutionize-healthcare-it-also-carries-legal-risks A medida que el aprendizaje automático y la inteligencia artificial se han hecho omnipresentes en la atención sanitaria, han surgido preguntas sobre sus posibles repercusiones. Y como señaló Matt Fisher, consejero general de la plataforma de atención virtual Carium, esos impactos potenciales pueden, a su vez, dejar a las organizaciones abiertas a posibles responsabilidades.   "Todavía es un área emergente", explicó Fisher en una entrevista con Healthcare IT News. "Hay un montón de preguntas diferentes sobre dónde pueden surgir los riesgos y las responsabilidades".  Fisher, que está moderando un panel sobre el tema en el evento HIMSS Machine Learning & AI for Healthcare este diciembre, describió dos áreas principales de preocupación legal: ciberseguridad y sesgo. (HIMSS es la organización matriz de Healthcare IT News). Cuando se trata de ciberseguridad,

Permitir que el usuario final actúe y confíe en los sistemas de inteligencia artificial

https://beyondstandards.ieee.org/enabling-end-user-trust-in-artificial-intelligence-in-the-algorithmic-age/ Los sistemas complejos de inteligencia artificial (SIA) se abren paso cada vez más en los contextos de consumo. Los usuarios de a pie, sin experiencia en el sector, se introducen en estos sistemas con distintos grados de transparencia y comprensión de la tecnología. Además, la mayoría no tiene claro cómo la interacción con estos sistemas puede afectar a sus vidas, tanto de forma positiva como negativa.  En un mundo ideal, imaginamos que podemos aprovechar las ventajas de los SIA y, al mismo tiempo, mitigar sus riesgos. Por eso se creó el Comité de Confianza y Agencia del IEEE (creado como comité de la Iniciativa Global del IEEE sobre Ética de los Sistemas Autónomos e Inteligentes). A medida que navegamos por la fase de innovación transitoria de los SIA, la comprensión y el debate crítico sobre el papel y la interacción de la confianza y la agencia del usuario final, junto con la

Sí, estamos asustados": La IA empieza a tener un gran impacto en el mundo real, según un experto

https://www.theguardian.com/technology/2021/oct/29/yeah-were-spooked-ai-starting-to-have-big-real-world-impact-says-expert Un científico autor de un importante libro de texto sobre inteligencia artificial ha declarado que los expertos están "asustados" por su propio éxito en este campo, comparando el avance de la IA con el desarrollo de la bomba atómica. El profesor Stuart Russell, fundador del Centro de Inteligencia Artificial Compatible con el Ser Humano de la Universidad de California en Berkeley, dijo que la mayoría de los expertos creían que este siglo se desarrollarían máquinas más inteligentes que los humanos, y pidió tratados internacionales para regular el desarrollo de la tecnología. "La comunidad de la IA aún no se ha ajustado al hecho de que ahora estamos empezando a tener un impacto realmente grande en el mundo real", dijo a The Guardian. "Durante la mayor parte de la historia de este campo no ha sido así: sólo estábamos en el laboratorio, desarrol

¿Hasta qué punto puede una IA imitar la ética humana?

https://www.vox.com/future-perfect/2021/10/27/22747333/artificial-intelligence-ethics-delphi-ai Cuando hace un par de décadas los expertos empezaron a dar la voz de alarma sobre el desajuste de la IA -el riesgo de que sistemas de inteligencia artificial potentes y transformadores no se comporten como los humanos esperan-, muchas de sus preocupaciones sonaban hipotéticas. A principios de la década de 2000, la investigación en IA todavía había producido resultados bastante limitados, e incluso los mejores sistemas de IA disponibles fallaban en una serie de tareas sencillas. Pero desde entonces, las IA se han vuelto bastante buenas y mucho más baratas de construir. Un área en la que los saltos han sido especialmente pronunciados ha sido en las IAs de lenguaje y generación de texto, que pueden ser entrenadas en enormes colecciones de contenido de texto para producir más texto en un estilo similar. Muchas empresas y equipos de investigación están entrenando a estas IAs para todo tipo de tar

Sue Curry Jansen y Jeff Pooley - Neither Artificial nor Intelligent (revisión de Crawford, Atlas of AI, y Pasquale, New Laws of Robotics)

https://www.boundary2.org/2021/10/sue-curry-jansen-and-jeff-pooley-neither-artificial-nor-intelligent-review-of-crawford-atlas-of-ai-and-pasquale-new-laws-of-robotics/ La inteligencia artificial (IA) es un sueño fáustico. Concebida en tiempo futuro, sus más fervientes visionarios pretenden crear una forma de inteligencia mejorada que supere con creces las capacidades del cerebro humano. La IA promete trascender el desorden de la encarnación, los sesgos de la cognición humana y las limitaciones de la mortalidad. Al entrar en su octava década, la IA es en gran medida ciencia ficción, a pesar de los recientes avances en el aprendizaje automático. Sin embargo, ha cautivado la imaginación del público desde sus inicios y ha adquirido un potente caché ideológico. Los robots se han convertido en los rostros humanoides de la IA, así como en iconos de la cultura popular: se presentan como compañeros útiles o como agentes del apocalipsis. La visión trascendente de la inteligencia artificial ha ed

Inteligencia artificial fisiognómica

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3927300 La reanimación de las pseudociencias de la fisiognomía y la frenología a escala mediante la visión por ordenador y el aprendizaje automático es un asunto de urgente preocupación. Este artículo, que contribuye a los estudios de datos críticos, a la ley de protección del consumidor, a la ley de privacidad biométrica y a la ley antidiscriminación, se esfuerza por conceptualizar y problematizar la inteligencia artificial (IA) fisionómica y ofrecer recomendaciones políticas para que los legisladores estatales y federales eviten su proliferación. La IA fisiognómica, sostenemos, es la práctica de utilizar programas informáticos y sistemas relacionados para inferir o crear jerarquías de la composición corporal de un individuo, el estatus de clase protegida, el carácter percibido, las capacidades y los futuros resultados sociales basados en sus características físicas o de comportamiento. Las lógicas fisiognómicas y frenológicas son in

Los límites del crecimiento: ¿Puede dominarse el voraz apetito de datos de la IA?

https://undark.org/2021/10/18/computer-scientists-try-to-sidestep-ai-data-dilemma/ EN LA PRIMAVERA DE 2019, los conjuntos de datos de inteligencia artificial comenzaron a desaparecer de Internet. Tales colecciones -normalmente gigabytes de imágenes, vídeo, audio o datos de texto- son la base de la forma cada vez más omnipresente y rentable de IA conocida como aprendizaje automático, que puede imitar varios tipos de juicios humanos, como el reconocimiento facial. En abril, fue el MS-Celeb-1M de Microsoft, compuesto por 10 millones de imágenes de rostros de 100.000 personas -muchos de ellos famosos, como su nombre indica, pero también muchos que no eran figuras públicas- recogidas de sitios de Internet. En junio, los investigadores de la Universidad de Duke retiraron su conjunto de datos multiobjetivo y multicámara (DukeMTMC), que consistía en imágenes tomadas de vídeos, en su mayoría de estudiantes, grabados en una concurrida intersección del campus durante 14 horas en un día de 2014. P

Cognición sin computación Que una teoría sea antigua no significa que sea correcta

https://spectrum.ieee.org/cognition-without-computation   Voy a decirlo sin rodeos: la cognición humana podría no tener nada que ver con la computación. Sí, soy muy consciente de que la teoría computacional de la mente es una teoría muy arraigada, que comenzó con los trabajos de Warren McCulloch y Walter Pitts en Chicago a principios de los años 40, y más tarde en el MIT, donde se les unieron Jerome Lettvin y Humberto Maturana. Pero a lo largo de la historia de la humanidad, muchas teorías se han mantenido de forma generalizada pero errónea, a veces durante décadas. Pensemos en la teoría del flogisto de la combustión. Durante más de un siglo, a partir de 1667, la mayoría de los científicos creyeron que lo que hacía arder cosas dispares era una sustancia común, más tarde llamada flogisto, que se disipaba en el aire a través del fuego. El aire sólo tenía una capacidad finita para absorberla, lo que explicaba por qué el fuego se extinguía si sólo había una pequeña cantidad de aire disponi

El oráculo de IA de Delfos utiliza los problemas de Reddit para ofrecer dudosos consejos morales

https://www.theverge.com/2021/10/20/22734215/ai-ask-delphi-moral-ethical-judgement-demo ¿Tienes un dilema moral que no sabes cómo resolver? ¿Te apetece empeorarlo? Por qué no recurrir a la sabiduría de la inteligencia artificial, también conocida como Ask Delphi: un interesante proyecto de investigación del Instituto Allen de Inteligencia Artificial que ofrece respuestas a dilemas éticos al tiempo que demuestra de forma maravillosamente clara por qué no debemos confiar al software las cuestiones de moralidad. Ask Delphi se lanzó el 14 de octubre, junto con un documento de investigación que describe cómo se hizo. Sin embargo, desde el punto de vista del usuario, el sistema es seductoramente sencillo de utilizar. Basta con entrar en el sitio web, describir cualquier situación que se pueda imaginar y Delphi emitirá un juicio moral. "Es malo", o "es aceptable", o "es bueno", y así sucesivamente. CADA RESPUESTA DEL ORÁCULO AI INCLUYE UN BOTÓN PARA "COMPART

Condicionar a toda una sociedad": el auge de la tecnología de datos biométricos

https://www.theguardian.com/technology/2021/oct/26/conditioning-an-entire-society-the-rise-of-biometric-data-technology En un comedor escolar de Gateshead, las cámaras escanean los rostros de los niños y cobran automáticamente tras identificarlos con el reconocimiento facial. A más de 200 millas de distancia, en el norte de Londres, el personal de una residencia de ancianos participó recientemente en un ensayo que utilizaba datos faciales para verificar su estado de vacunación contra el virus Covid-19. Y en las tiendas de todo el país, el personal es alertado de posibles ladrones por un sistema de CCTV inteligente que accede a una base de datos de personas consideradas sospechosas. En todos los casos, los datos biométricos se han aprovechado para intentar ahorrar tiempo y dinero. Pero el creciente uso de nuestros cuerpos para desbloquear áreas de la esfera pública y privada ha suscitado cuestiones que van desde la privacidad hasta la seguridad de los datos y los prejuicios raciales. CR

Automatización del lugar de trabajo sin diferencias de rendimiento: una respuesta a Danaher y Nyholm

https://link.springer.com/article/10.1007/s43681-021-00064-1 En un reciente artículo de esta revista, John Danaher y Sven Nyholm plantean la fundada preocupación de que los avances en la automatización basada en la IA amenacen los valores del trabajo significativo. En particular, presentan argumentos sólidos para pensar que la automatización socavará nuestros logros, haciendo así que nuestro trabajo sea menos significativo. También se afirma que la amenaza a los logros en el lugar de trabajo abrirá "brechas de logros", el reverso de las "brechas de responsabilidad" que ahora se discuten comúnmente en la ética de la tecnología. Esta afirmación, sin embargo, es mucho menos preocupante que las inquietudes generales por la automatización generalizada, sobre todo porque se basa en varias ambigüedades conceptuales. En este artículo, sostengo que, aunque la amenaza a los logros en el lugar de trabajo es problemática y exige respuestas políticas del tipo que Danaher y Nyhol

Fundamentos filosóficos para la ética digital y la ética de la IA: un enfoque digno

https://link.springer.com/article/10.1007/s43681-021-00040-9 La ética de la IA es un campo floreciente y relativamente nuevo que ha surgido en respuesta a la creciente preocupación por el impacto de la inteligencia artificial (IA) en los individuos humanos y sus instituciones sociales. A su vez, la ética de la IA forma parte del campo más amplio de la ética digital, que aborda preocupaciones similares generadas por el desarrollo y el despliegue de las nuevas tecnologías digitales. Aquí abordamos la importante preocupación de que la ética digital en general, y la de la IA en particular, carecen de fundamentos filosóficos adecuados. En respuesta directa a esa preocupación, formulamos y justificamos racionalmente algunos conceptos y principios básicos para la ética digital/ética de la IA, todos ellos extraídos de una teoría ampliamente kantiana de la dignidad humana. Nuestro argumento, que está diseñado para ser relativamente compacto y fácilmente accesible, se presenta en diez pasos dist

Máquinas del tiempo: Inteligencia Artificial, Proceso y Narrativa

https://link.springer.com/article/10.1007/s13347-021-00479-y Aunque hoy en día se discute mucho sobre la ética de la inteligencia artificial (IA), se ha trabajado menos sobre la naturaleza filosófica de la IA. Basándose en Bergson y Ricoeur, este artículo propone utilizar los conceptos de tiempo, proceso y narrativa para conceptualizar la IA y su impacto normativamente relevante en la vida humana y la sociedad. Distinguiendo entre una serie de formas diferentes en las que la IA y el tiempo están relacionados, el artículo explora lo que significa entender la IA como narrativa, como proceso o como el resultado emergente de procesos y narrativas. Presta especial atención a lo que denomina los papeles de "narrador" y "máquina del tiempo" de la IA y las implicaciones normativas de estos papeles. Sostiene que los procesos y las narrativas de la IA dan forma a nuestro tiempo y vinculan el pasado, el presente y el futuro de formas particulares que son ética y políticamente

Falso Positivismo

  https://reallifemag.com/false-positivism/ Durante la pandemia, el significado cotidiano de la modelización -representaciones de la realidad basadas en datos y diseñadas para informar la planificación- se hizo ineludible. Vimos nuestros planes, miedos y deseos a través de la lente de los agregados estadísticos: Los gráficos de las tasas de infección se convirtieron en representaciones no sólo de la propagación del virus, sino también de los planes destrozados, la ansiedad por los cierres, la preocupación por el destino de nuestras comunidades.  Pero a medida que los modelos epidemiológicos se hacían más influyentes, sus implicaciones se revelaron como cualquier cosa menos absolutas. Uno de los modelos, el modelo Recidiviz Covid-19 para el encarcelamiento, predecía altas tasas de infección en las prisiones y, en consecuencia, una sobrecarga en los hospitales. Aunque estas predicciones se utilizaron como base para liberar a algunos presos antes de tiempo, el modelo también ha sido citad

De la limpieza de la ética a la destrucción de la ética: una visión de la ética tecnológica desde la filosofía moral

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3914119 La palabra "ética" se utiliza en exceso en los círculos de política tecnológica. Arma para apoyar la desregulación, la autorregulación o la gobernanza sin intervención, la "ética" se identifica cada vez más con los esfuerzos de autorregulación de las empresas tecnológicas y con una apariencia superficial de comportamiento ético. El llamado "lavado de ética" por parte de las empresas tecnológicas va en aumento, provocando la crítica y el escrutinio de los académicos y de la comunidad tecnológica en general. Paralelamente al crecimiento del lavado de ética, su condena ha llevado a una tendencia a participar en el "ataque a la ética". Esto consiste en la trivialización de la ética y la filosofía moral, ahora entendidas como herramientas discretas o estructuras sociales preformadas como los consejos de ética, los esquemas de autogobierno o los grupos de interés. Los malentendidos que subyace

Temor por la privacidad al implantar el metro de Moscú un sistema de pago por reconocimiento facial

https://www.theguardian.com/world/2021/oct/15/privacy-fears-moscow-metro-rolls-out-facial-recognition-pay-system El metro de Moscú ha puesto en marcha lo que las autoridades han alabado como el primer sistema de pago por reconocimiento facial a gran escala del mundo, en medio de la preocupación por la privacidad de la nueva tecnología. El sistema sin dinero en efectivo, sin tarjeta y sin teléfono, denominado Face Pay, se puso en marcha el viernes en más de 240 estaciones de la capital rusa. "Ahora todos los pasajeros podrán pagar sus viajes sin sacar el teléfono, el metro o la tarjeta bancaria", tuiteó el jueves por la noche el alcalde de Moscú, Sergey Sobyanin. Para activar Face Pay, dijo Sobyanin, los pasajeros tendrán que conectar su foto, su tarjeta bancaria y su tarjeta de metro al servicio a través de la aplicación móvil del metro. "Bastará con mirar a la cámara para pasar por los torniquetes", dijo Sobyanin. Las autoridades moscovitas, que esperan que hasta e

Principios éticos para la inteligencia artificial en la defensa nacional

https://link.springer.com/article/10.1007/s13347-021-00482-3 Los organismos de defensa de todo el mundo consideran que la inteligencia artificial (IA) es una tecnología clave para mantener una ventaja sobre los adversarios. Por ello, los esfuerzos para desarrollar o adquirir capacidades de IA para la defensa están creciendo a escala mundial. Lamentablemente, no se han realizado esfuerzos para definir marcos éticos que guíen el uso de la IA en el ámbito de la defensa. Este artículo ofrece uno de esos marcos. Identifica cinco principios -usos justificados y anulables, sistemas y procesos justos y transparentes, responsabilidad moral del ser humano, control humano significativo y sistemas de IA fiables- y recomendaciones relacionadas para fomentar usos éticamente sólidos de la IA con fines de defensa nacional.

Los usuarios finales merecen "derecho a una explicación" sobre el perfil de los modelos algorítmicos de toma de decisiones

https://www.cpomagazine.com/data-privacy/carnegie-mellon-university-end-users-deserve-right-to-explanation-about-how-algorithmic-decision-making-models-profile-them/ Las redes sociales y el sector de la publicidad en Internet se basan ahora casi por completo en modelos algorítmicos de toma de decisiones que intentan determinar quién es el usuario final, cómo funciona su mente y a qué será más receptivo (y a qué se dedicará). Investigadores de la Universidad Carnegie Mellon, tras un análisis de estos modelos publicado en Business Ethics Quarterly, abogan ahora por el "derecho a la explicación" para arrojar luz sobre estos modelos secretos que influyen en el estado de ánimo, el comportamiento e incluso las acciones de millones de personas en todo el mundo cada día. - Publicidad - Los investigadores examinan esta propuesta de derecho en el marco de las normas existentes del Reglamento General de Protección de Datos (RGPD), estableciendo una comparación con el establecido "d

Inteligencia incorporada a través del aprendizaje y la evolución

https://www.nature.com/articles/s41467-021-25874-z Los procesos entrelazados de aprendizaje y evolución en nichos ambientales complejos han dado lugar a una notable diversidad de formas morfológicas. Además, muchos aspectos de la inteligencia animal están profundamente incorporados en estas morfologías evolucionadas. Sin embargo, los principios que rigen las relaciones entre la complejidad del entorno, la morfología evolucionada y la capacidad de aprendizaje del control inteligente siguen siendo esquivos, ya que la realización de experimentos in silico a gran escala sobre la evolución y el aprendizaje es un reto. Aquí presentamos el Aprendizaje Evolutivo Profundo por Refuerzo (DERL): un marco computacional que puede hacer evolucionar diversas morfologías de agentes para aprender tareas de locomoción y manipulación difíciles en entornos complejos. Aprovechando el DERL demostramos varias relaciones entre la complejidad del entorno, la inteligencia morfológica y la capacidad de aprendizaj

Cognición incorporada

https://plato.stanford.edu/entries/embodied-cognition/ Embodied Cognition es un amplio programa de investigación que se inspira en trabajos de psicología, neurociencia, etología, filosofía, lingüística, robótica e inteligencia artificial. Mientras que la ciencia cognitiva tradicional también abarca estas disciplinas, encuentra un objetivo común en una concepción de la mente ligada al computacionalismo: los procesos mentales son procesos computacionales; el cerebro, como ordenador, es la sede de la cognición. En cambio, la cognición incorporada rechaza o reformula los compromisos computacionales de la ciencia cognitiva, haciendo hincapié en la importancia del cuerpo físico del agente en las capacidades cognitivas. La idea que unifica a los investigadores de la cognición encarnada es que el cuerpo o las interacciones del cuerpo con el entorno constituyen o contribuyen a la cognición de un modo que requiere un nuevo marco para su investigación. Los procesos mentales no son, o no sólo son,

Plataformas biopolíticas: las virtudes perversas del trabajo digital

https://www.tandfonline.com/doi/full/10.1080/17530350.2021.1901766 Al mediar las actividades cotidianas, las interacciones sociales y las transacciones económicas, las plataformas digitales desempeñan un papel cada vez más dominante en el capitalismo contemporáneo. Estas plataformas se han destacado en la extracción de valor de los activos y el trabajo que se han considerado in(der)productivos. Mientras que la floreciente literatura sobre el capitalismo de plataforma y el trabajo digital se ha centrado en estos sistemas de extracción de valor, se ha prestado mucha menos atención a cómo las plataformas han emprendido también un proyecto de formación de sujetos y, por tanto, de desarrollo de capital. Mediante la teorización de una investigación empírica con personas que trabajan como repartidores de comida para Deliveroo, mostramos cómo las plataformas, en concreto las que prestan servicios en lugares urbanos, fomentan, e incluso exigen, que los trabajadores desarrollen una forma de capi

La agencia artificial y el juego de la extensión semántica

https://www.tandfonline.com/doi/abs/10.1080/03080188.2020.1868684?journalCode=yisr20 Los agentes artificiales se describen habitualmente utilizando palabras que tradicionalmente pertenecen al campo semántico de la vida. Llamo a este fenómeno el juego de la extensión semántica. Sin embargo, la extensión semántica de palabras tan cruciales como "autónomo", "inteligente", "creativo", "moral", etc., se percibe a menudo como insatisfactoria, lo que se señala con el uso extensivo de comillas u otros indicios sintácticos. Esta práctica, a su vez, ha provocado duras críticas que suelen remitirse al significado literal de las palabras para mostrar su inadecuación en la descripción de agentes artificiales. De ahí la pregunta: ¿cómo podemos elegir nuestras palabras de forma adecuada y sabia al dar sentido a los agentes artificiales? Este artículo trata de responder esbozando las principales características del juego de la extensión semántica en relación con

Derechos de autor e inteligencia artificial: Una historia de excepciones

https://medium.com/@nturkewitz_56674/copyright-and-artificial-intelligence-an-exceptional-tale-60bdd77a8f13 Ahora que el gobierno de EE.UU. empieza a considerar algunas de las implicaciones legales de los derechos de autor en relación con el desarrollo y el despliegue de la inteligencia artificial, es importante dar un paso atrás para asegurarnos de que nos guiamos adecuadamente por el contexto y por una correcta comprensión de nuestros objetivos, basados en una comprensión informada de la relación de los derechos de autor con el desarrollo de la IA, y en una justa observación del estado de los desarrollos legales en todo el mundo. Demasiados observadores han simplificado en exceso la forma en que los distintos países han abordado la relación entre los derechos de autor y la IA. La realidad es que todos los que lo han hecho han rechazado la noción de que los derechos de autor no están implicados, y han desarrollado normas legales que limitan cuidadosamente el alcance de cualquier excep

Más allá del individuo: gobernar el daño social de la IA

https://policyreview.info/articles/analysis/beyond-individual-governing-ais-societal-harm En este artículo, distingo tres tipos de daños que pueden surgir en el contexto de la inteligencia artificial (IA): daños individuales, daños colectivos y daños sociales. El daño social suele pasarse por alto, pero no es reducible a los dos primeros tipos de daño. Además, los mecanismos para hacer frente a los daños individuales y colectivos provocados por la IA no siempre son adecuados para contrarrestar los daños sociales. En consecuencia, el análisis de las lagunas del marco jurídico actual de la IA por parte de los responsables políticos no sólo corre el riesgo de ser incompleto, sino que las propuestas de nueva legislación para colmar estas lagunas también pueden proteger inadecuadamente los intereses de la sociedad que se ven perjudicados por la IA. Al conceptualizar el daño social de la IA, sostengo que es necesario un cambio de perspectiva más allá del individuo, hacia un enfoque regulador

Un profesora de Duke gana un premio de inteligencia artificial de un millón de dólares, un "nuevo Nobel

https://pratt.duke.edu/about/news/rudin-squirrel-award Mientras que muchos estudiosos del campo en desarrollo del aprendizaje automático se centraban en mejorar los algoritmos, Rudin quería utilizar el poder de la IA para ayudar a la sociedad. Decidió buscar oportunidades para aplicar las técnicas de aprendizaje automático a problemas sociales importantes y, en el proceso, se dio cuenta de que el potencial de la IA se libera mejor cuando los humanos pueden mirar dentro y entender lo que está haciendo. Ahora, tras 15 años de defensa y desarrollo de algoritmos de aprendizaje automático "interpretables" que permiten a los humanos ver el interior de la IA, las contribuciones de Rudin a este campo le han valido el premio Squirrel AI Award for Artificial Intelligence for the Benefit of Humanity, dotado con un millón de dólares, otorgado por la Asociación para el Avance de la Inteligencia Artificial (AAAI). Fundada en 1979, la AAAI es la principal sociedad científica internacional a

La promesay el peligro de la IA

https://www.hsph.harvard.edu/magazine/magazine_article/artificial-intelligences-promise-and-peril/ John Quackenbush estaba frustrado con Google. Era enero de 2020 y un equipo dirigido por investigadores de Google Health acababa de publicar un estudio en Nature sobre un sistema de inteligencia artificial (IA) que habían desarrollado para analizar mamografías en busca de signos de cáncer de mama. Según el estudio, el sistema no solo funcionaba, sino que lo hacía excepcionalmente bien. Cuando el equipo le proporcionó dos grandes conjuntos de imágenes para analizar -uno del Reino Unido y otro de Estados Unidos- redujo los falsos positivos en un 1,2 y un 5,7 por ciento y los falsos negativos en un 2,7 y un 9,4 por ciento en comparación con las determinaciones originales realizadas por los profesionales médicos. En otra prueba que enfrentó al sistema de IA con seis radiólogos certificados en el análisis de casi 500 mamografías, el algoritmo superó a cada uno de los especialistas. Los autores

El futuro no es la solución

https://www.publicbooks.org/the-future-is-not-a-solution/ "El futuro es un tipo particular de orador", explica el académico de la comunicación James W. Carey, "que nos dice hacia dónde vamos antes de que lo sepamos nosotros mismos".1 Pero en los debates sobre la naturaleza del futuro, el futuro como experiencia nunca aparece. Esto se debe a que "el futuro está siempre fuera de escena y nunca hace su entrada en la historia; el futuro es un tiempo que nunca llega pero que siempre se espera". Tal vez por eso, en el contexto estadounidense, existe una tendencia generalizada a "descartar el presente por el futuro", y a ver el "futuro como disolvente" de los problemas sociales existentes. Las discusiones abstractas sobre "el futuro" no dan en el blanco. Esto se debe a que la experiencia nos cambia. Cualquiera que haya vivido los últimos 18 meses de la pandemia de COVID-19 estará seguramente de acuerdo. Aunque los expertos en salud s

Un premio Nobel contra la falacia que une correlación y causalidad

https://elpais.com/politica/2021/10/14/actualidad/1634222568_419481.html Los economistas David Card, Joshua Angrist y Guido Imbens han obtenido el galardón por hacer más científica la economía, inventando trucos para atacar su pregunta más difícil: qué causa qué

IA veraz: desarrollar y gobernar una IA que no mienta

https://www.lesswrong.com/posts/aBixCPqSnTsPsTJBQ/truthful-ai-developing-and-governing-ai-that-does-not-lie En muchos contextos, la mentira -el uso de falsedades verbales para engañar- es perjudicial. Aunque la mentira ha sido tradicionalmente un asunto humano, los sistemas de IA que hacen declaraciones verbales sofisticadas son cada vez más frecuentes. Esto plantea la cuestión de cómo deberíamos limitar el daño causado por las "mentiras" de la IA (es decir, las falsedades que se seleccionan activamente). La veracidad humana se rige por las normas sociales y por las leyes (contra la difamación, el perjurio y el fraude). Las diferencias entre la IA y los seres humanos ofrecen la posibilidad de establecer normas de veracidad más precisas para la IA y de que estas normas aumenten con el tiempo. Esto podría aportar importantes beneficios a la episteme pública y a la economía, y mitigar los riesgos de los peores casos de IA.  El establecimiento de normas o leyes sobre la veracidad

La inteligencia artificial ya forma parte de nuestra vida cotidiana, y su creciente poder es un arma de doble filo

https://algorithm.data61.csiro.au/artificial-intelligence-is-now-part-of-our-everyday-lives-and-its-growing-power-is-a-double-edged-sword/ El informe AI100 sostiene que la preocupación por las máquinas superinteligentes y la pérdida de puestos de trabajo a gran escala a causa de la automatización es todavía prematura, ya que se necesita una IA mucho más capaz que la disponible en la actualidad. La principal preocupación que plantea el informe no son las máquinas malévolas de inteligencia superior a la humana, sino las máquinas incompetentes de inteligencia inferior. Una vez más, es fácil encontrar en las noticias historias de la vida real de los riesgos y amenazas para nuestro discurso democrático y la salud mental que plantean las herramientas impulsadas por la IA. Por ejemplo, Facebook utiliza el aprendizaje automático para clasificar su feed de noticias y dar a cada uno de sus 2.000 millones de usuarios una visión única, pero a menudo incendiaria, del mundo. La imagen pixelada de Ba

El retorno de la inversión de la IA: ¿proporcionará un valor real?

https://venturebeat.com/2021/10/18/the-roi-of-ai-will-it-deliver-real-value/ El sector empresarial está preparado para empezar a gastar mucho dinero en IA el año que viene, pero quizá la pregunta más importante aún no tiene respuesta: ¿Se va a ganar dinero, o sólo va a costar dinero? El hecho es que todavía hay muchos malentendidos sobre lo que es realmente la IA, cómo se integra en los procesos existentes y qué puede conseguir en última instancia. Sin duda, la mayoría de los usuarios potenciales siguen viendo la IA a través de la lente de las plataformas de software tradicionales: un conjunto integrado de programas que se carga en los sistemas de datos para llevar a cabo un objetivo establecido. Esto no sólo es erróneo, sino que infravalora significativamente el verdadero coste de implementar la IA de forma efectiva.

Reiniciar el sistema: Por qué debe cambiar la industria tecnológica

https://hai.stanford.edu/news/rebooting-system-why-tech-industry-must-change Mucha gente cree que la revolución digital nos ha arrastrado como un maremoto y que no tenemos ningún control sobre ella. Nosotros escribimos el libro porque creemos que la gente puede y debe desempeñar un papel activo en la configuración de la tecnología. Imagen de la portada del libro System ErrorY como académicos de diversos campos, también tuvimos nuestras razones individuales para escribir el libro. Jeremy Weinstein, que trabajó en la administración de Obama, quería ayudar a los responsables políticos a adquirir los conocimientos técnicos necesarios para enfrentarse a los retos de las grandes tecnologías. Mehran Sahami, como profesor de ciencias de la computación que trabajó en Google, quería ayudar a sus estudiantes a entrar en la fuerza de trabajo con una sólida comprensión de las consecuencias sociales potencialmente negativas de la tecnología, ayudar a los trabajadores de la tecnología a garantizar qu

IA ética para el cumplimiento de los carriles bus automatizados

https://mdpi-res.com/d_ attachment/sustainability/ sustainability-13-11579/ article_deploy/sustainability- 13-11579.pdf Opción 1, "Normas actuales": Podemos ver que la extracción y retención de información es relevante sólo para el delito. El resultado del proceso es actuar como elemento disuasorio para futuras transgresiones, ayudando así a combatir el problema de la congestión y abordando los valores, objetivos y propósitos de la aplicación de la ley. El riesgo técnico de esta solución es bajo, ya que sólo se capturan los datos relevantes para la infracción. Sin embargo, esta solución requiere personal escaso y es poco práctica para operar a escala, lo que permite que las infracciones proliferen. Por lo tanto, se necesitan soluciones alternativas. Opción 2, "Escenario de registros de conductores de autobús": Esta solución cumple las normas actuales en muchos formas. El conductor del autobús sólo graba cuando su autobús está bloqueado. También puede ser capaz de te