Entradas

Mostrando entradas de febrero, 2022

La autonomía humana en la era de la inteligencia artificial

https://www.nature.com/articles/s42256-022-00449-9.epdf?sharing_token=oeKNawoCKUvR9Fplg76qY9RgN0jAjWel9jnR3ZoTv0O-sAnKM2klLcENX45X3IsDogQ_ZdurccwtZngD_Do2_YTvcLsGLG3vHCmSQZegqfHnO2mCvVtCHfxb0d5OYugOAyhGdMoGYETfCl419uSMmgtBv-I5f4rxTDk_HVEMMP0%3D Las recomendaciones políticas actuales sobre la IA difieren en cuanto a los riesgos para la autonomía humana. Para abordar sistemáticamente los riesgos de la autonomía, debemos afrontar la complejidad del propio concepto y adaptar las soluciones de gobernanza en consecuencia.

Optimizar las máquinas es peligroso. Piense en una IA "creativamente adecuada". El futuro de la inteligencia artificial necesita menos datos y puede tolerar la ambigüedad.

https://www.wired.com/story/artificial-intelligence-data-future-optimization-antifragility/ La ruptura se produce cada vez que la IA se encuentra con la ambigüedad o la volatilidad. Y en nuestro nebuloso e inestable mundo, eso es todo el tiempo: O bien los datos pueden interpretarse de otra manera o bien quedan obsoletos por nuevos acontecimientos. En ese momento, la IA se encuentra mirando la vida con ojos errantes, viendo la izquierda como la derecha o el ahora como el ayer. Pero como la IA carece de conciencia de sí misma, no se da cuenta de que su visión del mundo se ha resquebrajado. Por lo tanto, sigue zumbando, transmitiendo involuntariamente la fractura a todas las cosas conectadas a ella. Los coches se estrellan. Se lanzan insultos. Los aliados son auto-objetivados. Esto rompe a los humanos en el sentido directo de dañarnos, incluso matarnos. Pero también ha empezado a rompernos de una manera más sutil. La IA puede funcionar mal ante el más leve deslizamiento de datos, por lo

Cómo la IA está secuestrando la historia del arte

https://theconversation.com/how-ai-is-hijacking-art-history-170691 La gente tiende a alegrarse de la revelación de un secreto. O, al menos, los medios de comunicación se han dado cuenta de que las noticias sobre "misterios resueltos" y "tesoros ocultos revelados" generan tráfico y clics. Por eso nunca me sorprende que se hagan virales las revelaciones asistidas por la IA sobre obras de arte de maestros famosos. Sólo en el último año, me he encontrado con artículos que destacan cómo la inteligencia artificial recuperó un cuadro "secreto" de una "amante perdida" del pintor italiano Modigliani, "dio vida" a un "desnudo oculto de Picasso", "resucitó" las obras destruidas del pintor austriaco Gustav Klimt y "restauró" partes del cuadro "La ronda de noche" de Rembrandt de 1642. La lista continúa. Como historiador del arte, cada vez me preocupa más la cobertura y la difusión de estos proyectos. En realid

¿HUMANIZO, POR TANTO ENTIENDO?

https://psyarxiv.com/6az2h/ El funcionamiento de los sistemas inteligentes puede resultar opaco para los usuarios. Sin embargo, los usuarios necesitan tomar decisiones informadas sobre ellos. Este trabajo compara dos mecanismos de conocimiento, es decir, formas en que los usuarios logran comprender los sistemas inteligentes: la explicación y la humanización. En un experimento en línea (N = 416), comparamos los efectos de una condición de control sin ninguna explicación frente a a) una explicación neutral y b) una humanizada, así como c) una humanización activa, sobre la comprensión (percibida y objetiva) del usuario y las percepciones de los sistemas (confianza, transparencia, satisfacción, utilidad percibida). Nuestra principal conclusión: Las explicaciones aumentaron la transparencia y la comprensión percibida, pero no la comprensión objetiva. La humanización activa, sorprendentemente, redujo la comprensión objetiva en comparación con la condición de control, lo que sugiere una inhib

Inteligencia Artificial Relacional

https://arxiv.org/pdf/2202.07446.pdf El impacto de la Inteligencia Artificial no depende sólo de la investigación fundamental y de los avances tecnológicos, sino en gran parte de cómo se introducen estos sistemas en la sociedad y se utilizan en situaciones cotidianas. Aunque la IA se asocia tradicionalmente con la toma de decisiones racionales, comprender y dar forma al impacto social de la IA en todas sus facetas requiere una perspectiva relacional. Un enfoque racional de la IA, en el que los algoritmos computacionales impulsan la toma de decisiones con independencia de la intervención, las percepciones y las emociones humanas, ha demostrado dar lugar a sesgos y y exclusión, dejando al descubierto las vulnerabilidades e inseguridades de la sociedad. Un enfoque relacional, centrado en la naturaleza relacional de las cosas, es necesario para tratar las implicaciones éticas, legales, sociales, culturales y medioambientales de la IA. Un enfoque relacional de la IA reconoce que el razonami

Por qué importan las metáforas: Cómo estamos desinformando a nuestros hijos sobre los datos

https://blog.betterimagesofai.org/why-metaphors-matter-how-were-misinforming-our-children-about-data/ ¿Te has dado cuenta de la frecuencia con la que utilizamos metáforas en nuestro lenguaje cotidiano? Las palabras que utilizamos importan, y el lenguaje metafórico pinta imágenes mentales impregnadas de suposiciones y connotaciones ocultas y a menudo erróneas. Al examinar el impacto de las imágenes metafóricas para representar las tecnologías y los conceptos incluidos en el término inteligencia artificial, puede resultar esclarecedor profundizar en un elemento de la IA: el de los datos.

Las caras falsas creadas por la IA parecen más fiables que las personas reales

https://www.newscientist.com/article/2308312-fake-faces-created-by-ai-look-more-trustworthy-than-real-people/ La inteligencia artificial puede crear rostros humanos tan realistas que la gente no puede distinguirlos de los reales, y de hecho confía más en los rostros falsos. Los rostros humanos ficticios generados por ordenador son tan convincentes que pueden engañar incluso a observadores entrenados. Pueden descargarse fácilmente en línea y utilizarse para estafas en Internet y perfiles falsos en las redes sociales. "Deberíamos preocuparnos porque estos rostros sintéticos son increíblemente eficaces para fines nefastos, para cosas como el porno de venganza o el fraude, por ejemplo", dice Sophie Nightingale, de la Universidad de Lancaster (Reino Unido). Acompáñenos en un alucinante festival de ideas y experiencias. New Scientist Live se vuelve híbrido, con un evento presencial en Manchester (Reino Unido), que también podrá disfrutar desde la comodidad de su casa, del 12 al 14

El camino hacia la Inteligencia Artificial: IA clásica vs. Aprendizaje profundo vs. Enfoque biológico

https://numenta.com/blog/2022/01/25/the-path-to-machine-intelligence En nuestra comparación de estos tres enfoques diferentes, no hay duda de que la IA clásica y el aprendizaje profundo han resuelto problemas importantes. De hecho, hoy en día se pueden imaginar escenarios en los que cada enfoque sería óptimo.  No obstante, la IA clásica y el aprendizaje profundo siguen teniendo limitaciones que no pueden superarse añadiendo más reglas o más datos al problema. No están en el camino hacia la verdadera inteligencia de las máquinas, y necesitamos un nuevo enfoque para llegar allí. La IA clásica se basa en reglas. Tiene una estructura definida pero no aprende; está programada. El aprendizaje profundo se entrena con datos pero carece de estructura. Ninguna de las dos puede adaptarse sobre la marcha ni generalizar ni comprender de verdad. Para crear máquinas que comprendan y generalicen, nos inspiramos en el cerebro.  La teoría de los mil cerebros sobre la inteligencia ofrece el camino hacia

Una nueva propuesta de ley podría hacer responsables a las grandes tecnológicas de sus algoritmos

https://slate.com/technology/2022/02/algorithmic-accountability-act-wyden.html Hemos visto una y otra vez las consecuencias nocivas e imprevistas de la utilización irresponsable de algoritmos: herramientas de evaluación de riesgos en el sistema de justicia penal que amplifican la discriminación racial, falsas detenciones impulsadas por el reconocimiento facial, enormes costes medioambientales de las granjas de servidores, daños psicológicos no reconocidos de las interacciones en las redes sociales y nuevos obstáculos, a veces insuperables, para acceder a los servicios públicos. Estos daños reales son atroces, pero lo que hace que el régimen actual no tenga remedio es que las empresas están incentivadas a permanecer ignorantes (o al menos pretenden serlo) sobre los daños a los que nos exponen, para no ser declaradas responsables.

La trampa de Turing: la promesa y el peligro de una inteligencia artificial similar a la humana

https://digitaleconomy.stanford.edu/news/the-turing-trap-the-promise-peril-of-human-like-artificial-intelligence/ En 1950, Alan Turing propuso un "juego de imitación" como prueba definitiva para saber si una máquina era inteligente: ¿podría una máquina imitar a un humano tan bien que sus respuestas a las preguntas fueran indistinguibles de las de un humano1 . Los beneficios de la inteligencia artificial similar a la humana (HLAI) incluyen el aumento de la productividad, el incremento del ocio y, quizás lo más profundo, una mejor comprensión de nuestras propias mentes. Pero no todos los tipos de IA son similares a los humanos -de hecho, muchos de los sistemas más potentes son muy diferentes de los humanos- y un enfoque excesivo en el desarrollo y despliegue de la HLAI puede llevarnos a una trampa. A medida que las máquinas se convierten en mejores sustitutos del trabajo humano, los trabajadores pierden poder de negociación económica y política y se vuelven cada vez más dependi

Inteligencia artificial digna de confianza: ¿pueden las leyes generar confianza en la inteligencia artificial?

https://www.womeninai.co/post/trustworthy-ai-can-laws-build-trust-in-ai De hecho, en el derecho suizo, la confianza (alemán: Vertrauen / italiano: Fiducia / francés: Confiance) no se menciona nunca, por ejemplo, en el Código Civil suizo, en el Código de Obligaciones, ni en la Ley Federal de Responsabilidad por Productos, que constituyen bases jurídicas fundamentales. Sin embargo, empezamos a ver esta tendencia también en Suiza: El segundo objetivo clave de la Estrategia Suiza Digital es garantizar la seguridad, la confianza y la transparencia. Por lo tanto, la confianza parece convertirse en un aspecto importante en lo que respecta a la IA, y el propio sistema de gobernanza (es decir, las estructuras y los procesos diseñados para garantizar la responsabilidad, la transparencia, el estado de derecho y una amplia participación), así como los reguladores que lo aplican, parecen tener que ganarse la confianza del público (Sutcliffe y Brown, 2021). Pero, ¿de qué hablamos exactamente cuando

La Justicia impide la apertura del código fuente de la aplicación que concede el bono social

https://civio.es/novedades/2022/02/10/la-justicia-impide-la-apertura-del-codigo-fuente-de-la-aplicacion-que-concede-el-bono-social/ El Juzgado Central de lo Contencioso-Administrativo desestima el recurso de Civio en el que reclamaba acceso al programa que otorga esta ayuda

La policía desafía las protestas de los derechos humanos para seguir adelante con la tecnología de escaneo facial

https://inews.co.uk/news/long-reads/police-facial-scanning-technology-hunt-fugitives-human-rights-1454833 Desde Oxford Street, en Londres, hasta el sur de Gales, las fuerzas policiales están desplegando esta controvertida tecnología con renovado vigor, pero los activistas sostienen que no se ha hecho lo suficiente para garantizar que el uso de este software de alta tecnología sea jurídicamente impecable.

La inteligencia artificial responsable no puede existir sin un diseño centrado en el ser humano

https://fortune.com/2022/01/21/responsible-a-i-cant-exist-without-human-centered-design-artificial-intelligence-tech/ Y necesitamos esas herramientas. Aunque la era de la información nos ha dejado inundados de datos, los seres humanos sólo pueden procesar una cantidad limitada de ellos. Piensa en nuestros cerebros como en aberturas por las que sólo pueden fluir una cantidad determinada de datos. Una inteligencia artificial bien diseñada puede identificar lo que es importante, limitando lo que intentamos colar por la abertura. En términos prácticos, hay tres reglas para crear herramientas de inteligencia artificial responsables y potentes, centrándolas en el ser humano: Adaptar la tecnología al problema, no al revés. La gente no compra palas para tenerlas: quiere cavar agujeros. Con demasiada frecuencia, en la alta tecnología creamos primero y encontramos un uso después. Hay que identificar las necesidades del cliente y luego diseñar la mejor tecnología para resolverlas. Por ejemplo, la

Delphi: Hacia la ética y las normas de las máquinas

https://arxiv.org/abs/2110.07574 ¿Qué se necesita para enseñar a una máquina a comportarse de forma ética? Aunque las normas éticas generales pueden parecer sencillas de enunciar ("no matarás"), aplicarlas a situaciones del mundo real es mucho más complejo. Por ejemplo, mientras que "ayudar a un amigo" es generalmente algo bueno, "ayudar a un amigo a difundir noticias falsas" no lo es. Identificamos cuatro desafíos subyacentes hacia la ética y las normas de las máquinas: (1) la comprensión de los preceptos morales y las normas sociales; (2) la capacidad de percibir situaciones del mundo real visualmente o leyendo descripciones en lenguaje natural; (3) el razonamiento de sentido común para anticipar el resultado de acciones alternativas en diferentes contextos; (4) lo más importante, la capacidad de hacer juicios éticos dada la interacción entre valores en competencia y su fundamento en diferentes contextos (por ejemplo, el derecho a la libertad de expresió

¿Igualdad artificial? Confianza en la toma de decisiones policiales algorítmicas

https://link.springer.com/article/10.1007/s11292-021-09484-9 La gente considera que una decisión es menos justa y menos apropiada cuando la decide un algoritmo, en comparación con cuando la decide un agente. Sin embargo, las percepciones de justicia y adecuación fueron fuertes predictores del apoyo al uso de algoritmos por parte de la policía, y estar expuesto a un uso exitoso de un algoritmo estaba vinculado, a través de la confianza en la decisión tomada, a un mayor apoyo al uso de algoritmos por parte de la policía.

La IA ya está tomando decisiones morales por nosotros. ¿Y ahora qué?

https://nautil.us/ai-is-already-making-moral-choices-for-us-now-what-13740/ ¿Necesitamos que la inteligencia artificial nos diga qué está bien y qué está mal? La idea puede parecerle repulsiva. Muchos consideran que su moral, sea cual sea la fuente, es fundamental para su persona. No es algo que se pueda externalizar a una máquina. Pero todo el mundo se enfrenta a situaciones moralmente inciertas y, en ocasiones, buscamos la opinión de otros. Podemos recurrir a alguien a quien consideramos una autoridad moral, o imaginar lo que podría hacer en una situación similar. También podemos recurrir a formas de pensamiento estructuradas -teorías éticas- para que nos ayuden a resolver el problema. Tal vez una inteligencia artificial podría servir como el mismo tipo de guía, si confiáramos lo suficiente en ella. Incluso si no buscamos el consejo moral de una IA, es un hecho que cada vez más IAs tienen que tomar sus propias decisiones morales. O, al menos, decisiones que tienen consecuencias signi

Porque su algoritmo lo dice

https://www.thecut.com/2022/02/tik-tok-tinder-algorithm-relationship.html Emely Betancourt prefiere mostrarte su aplicación de Notas antes de entregarte el acceso a su página TikTok For You. Es un espejo virtual demasiado exacto, me dice, que le llevó horas de desplazamiento crear. La página "Para ti" es la fuente principal de TikTok. Al principio, te muestra sus ofertas más apetecibles: vídeos con millones de "me gusta", celebridades, Charli D'Amelio. A medida que empiezas a ver y a dar likes a las publicaciones, te adentras en un nicho que has co-creado con el famoso algoritmo de la plataforma. Betancourt sabe que suena intenso, pero siente que su FYP la entiende de verdad por dentro y por fuera: "Siento que es realmente un reflejo de mis pensamientos subconscientes; incluso las cosas que nunca digo en voz alta, lo sabrá". Al igual que otros 100 millones de estadounidenses bajo bloqueo, Betancourt comenzó a utilizar TikTok durante los primeros días d

El mito del excepcionalismo tecnológico

https://www.noemamag.com/the-myth-of-tech-exceptionalism/ Con la avalancha de cobertura de la prensa y las audiencias del Congreso sobre el papel de las grandes empresas tecnológicas en la sociedad en los últimos años, hemos escuchado variaciones de una defensa demasiado común de los líderes tecnológicos: "Hacemos más bien que mal". A primera vista, se trata de una afirmación infundada e incuantificable, basada en la opinión de la autodenominada industria tecnológica sobre lo que es bueno para el resto de nosotros, tanto hoy como en el futuro que están construyendo. Y lo que es más importante, es un argumento irrelevante que pretende subvertir un propósito fundamental de la gobernanza democrática: proteger al público de actores y prácticas empresariales depredadoras o perjudiciales.  Lo que ha llegado a conocerse como "tech" presenta una imagen de dos caras. Por un lado, la tecnología representa (y sobre todo se presenta a sí misma) como todo lo bueno del capitalism

Imperativos empresariales y el futuro de la IA

https://towardsdatascience.com/corporate-imperatives-and-the-future-of-ai-part-ii-fc086d25060a En los últimos años se ha producido un rápido crecimiento del desarrollo y la expansión de las grandes plataformas digitales y de los campos de la IA y la ética de la ciencia de los datos. Las plataformas digitales son propiedad de algunas de las mayores empresas tecnológicas del mundo, un grupo conocido colectivamente como Big Tech: Alphabet (Google), Amazon, Apple, Meta (Facebook) y Microsoft. A través de las plataformas digitales, las grandes empresas tecnológicas median e influyen cada vez más en los productos que compramos, los servicios que utilizamos y el entretenimiento que consumimos. Estas empresas que cotizan en bolsa interconectan sus plataformas digitales e infraestructuras de intercambio de datos para crear ecosistemas de plataformas globales de una escala, influencia social y valor económico sin precedentes. Los lectores que sientan curiosidad por saber cómo las plataformas dig

Una demostración aterradora de cómo podría ser el reconocimiento facial sin control

https://www.aclu.org/news/privacy-technology/a-scary-demonstration-of-what-unchecked-face-recognition-could-look-like/ Una empresa de reconocimiento facial y analítica de vídeo ha creado un producto que nos recuerda con crudeza el poder de estas tecnologías y cómo es probable que las utilicen con el tiempo las fuerzas del orden, las empresas poderosas y otros, si nosotros como sociedad lo permitimos. La tecnología en cuestión tiene que ver con la búsqueda de vídeo, que describimos en nuestro informe de análisis de vídeo de 2019. En el pasado, los operadores de vídeo que buscaban algo tenían que desplazarse manualmente por muchas horas de vídeo, pero la tecnología está automatizando cada vez más esas búsquedas. En una presentación para los suscriptores del grupo de investigación sobre vigilancia IPVM, una empresa llamada Vintra presentó su tecnología para buscar rápidamente en grandes almacenes de material de vídeo Merece la pena ver la parte relevante de tres minutos de la presentación

Lo que perdemos los humanos cuando dejamos que la IA decida

https://sloanreview.mit.edu/article/what-humans-lose-when-we-let-ai-decide/ Han pasado más de 50 años desde que HAL, el malévolo ordenador de la película 2001: Una odisea del espacio, aterrorizó por primera vez al público al volverse contra los astronautas a los que debía proteger. Ese momento cinematográfico capta lo que muchos de nosotros todavía tememos de la IA: que adquiera poderes sobrehumanos y nos subyugue. Pero en lugar de preocuparnos por las pesadillas de la ciencia ficción futurista, deberíamos despertar a un escenario igualmente alarmante que se está desarrollando ante nuestros ojos: Cada vez más, sin sospecharlo pero de forma voluntaria, estamos renunciando a nuestro poder de tomar decisiones basadas en nuestro propio juicio, incluidas nuestras convicciones morales. Lo que creemos que es "correcto" corre el riesgo de dejar de ser una cuestión de ética para convertirse simplemente en el resultado "correcto" de un cálculo matemático. En el día a día, los

Evaluación del impacto de los algoritmos: un estudio de caso en la asistencia sanitaria

https://www.adalovelaceinstitute.org/report/algorithmic-impact-assessment-case-study-healthcare/ Este informe presenta la primera propuesta detallada conocida para el uso de una evaluación de impacto algorítmico para el acceso a los datos en un contexto sanitario: la propuesta de Plataforma Nacional de Imágenes Médicas (NMIP) del Servicio Nacional de Salud (NHS) del Reino Unido. Propone un proceso para las EIA, cuyo objetivo es garantizar que los usos algorítmicos de los datos del sector público se evalúen y gobiernen para producir beneficios para la sociedad, los gobiernos, los organismos públicos y los desarrolladores de tecnología, así como para las personas representadas en los datos y afectadas por las tecnologías y sus resultados Incluye medidas prácticas para el proceso de EIA, junto con consideraciones más generales para el uso de EIA en otros contextos del sector público y privado.

Tendencias emergentes: Persecución de la SOTA

https://www.cambridge.org/core/journals/natural-language-engineering/article/emerging-trends-sotachasing/5E9F9F796159040973053C52C443C1D6 Muchos trabajos persiguen los números del estado de la técnica (SOTA), y más lo harán en el futuro. Perseguir el SOTA tiene muchos costes. La búsqueda del SOTA excluye oportunidades más prometedoras, como la coopetición y la colaboración interdisciplinar. Además, existe el riesgo de que un exceso de búsqueda de SOTA pueda dar lugar a afirmaciones de rendimiento sobrehumano, expectativas poco realistas y el próximo invierno de la IA.

Threat of 'postcode discrimination' as credit scores skewed by where you live

https://www.abc.net.au/news/2022-02-07/threat-of-postcode-discrimination-in-credit-scores/100723574 El lugar en el que vives podría determinar si puedes conseguir una hipoteca, ya que la mayor empresa de calificación crediticia de Australia aplica ahora los datos del código postal a la hora de evaluar las solicitudes. Puntos clave: Los bancos utilizan las puntuaciones de crédito de las personas para determinar si se les debe aprobar un préstamo o una tarjeta de crédito. El líder del mercado, Equifax, utiliza datos sobre el riesgo crediticio de las personas en determinados códigos postales. El uso de la toma de decisiones automatizada (ADM) en las finanzas está creciendo Equifax tiene información sobre casi 20 millones de australianos y los bancos utilizan las "puntuaciones de crédito" que produce para determinar si conceden un préstamo hipotecario. La confirmación del uso de los datos del código postal por parte de Equifax es otro obstáculo para la movilidad social -la mejora

IA Crítica 2.0

https://lareviewofbooks.org/article/ai-critique-2-0/ PATRÓN Y PREDICCIÓN podrían considerarse las palabras clave del joven siglo XXI. Encontrar patrones automáticamente, en el "océano" de datos del que tanto oímos hablar hoy en día, recae cada vez más en algoritmos de vanguardia llamados "redes neuronales", que "aprenden" patrones en datos de consumo, datos de tráfico, datos de imágenes. Sea lo que sea lo que esté haciendo ahora mismo, probablemente no esté más que a un paso de una red, que ha determinado el contenido que está viendo, la ruta que está tomando, el tamaño de la caja que le han entregado, el conductor concreto que le ha recogido en el aeropuerto. Las redes se han extendido por todo el mundo en la última década, reconociendo nuestros rostros, detectando tumores en las radiografías y personalizando nuestros anuncios. La IA se ha extendido por el mundo, donde antes estaba aislada en sistemas matemáticos y computacionales heurísticos. La primera

Por qué la IA es fundamental para el éxito del marketing

https://www.thedrum.com/opinion/2022/01/26/why-ai-critical-marketing-success A medida que la IA se integre más en el marketing digital, las campañas más completas serán gestionadas por expertos en marketing que encuentren el equilibrio adecuado entre el ML y los esfuerzos manuales para poner a prueba las teorías, obtener información y obtener resultados para sus clientes.

Un elogio prematuro de la privacidad

https://lareviewofbooks.org/article/a-premature-eulogy-for-privacy/ El yo que se beneficia de la privacidad no es la isla autónoma y precultural que supone el modelo individualista liberal. La privacidad tampoco puede reducirse a una condición o atributo fijo (como el aislamiento o el control) cuyos límites pueden delimitarse claramente mediante la aplicación de la lógica deductiva. La privacidad es la abreviatura de un espacio de respiro para participar en los procesos de gestión de los límites que permiten y constituyen el autodesarrollo. Así entendida, la privacidad es fundamentalmente dinámica. En un mundo caracterizado por la omnipresente configuración social de la subjetividad, la privacidad fomenta la autodeterminación (parcial). Permite a los individuos tanto mantener los vínculos relacionales como desarrollar perspectivas críticas sobre el mundo que les rodea.

De la caja negra al velo algorítmico: por qué la imagen de la caja negra es perjudicial para la regulación de la IA

https://blog.betterimagesofai.org/from-black-box-to-algorithmic-veil-why-the-image-of-the-black-box-is-harmful-to-the-regulation-of-ai/ El lenguaje nunca es inocente: las palabras poseen una memoria secundaria, que en medio de nuevos significados persiste misteriosamente. Roland Barthes El debate social, así como el académico, sobre las nuevas tecnologías se caracteriza a menudo por el uso de metáforas y analogías. Cuando se trata de la clasificación jurídica de las nuevas tecnologías, Crootof habla incluso de una "batalla de analogías "2. Las metáforas y las analogías ofrecen islas de familiaridad a la hora de navegar jurídicamente por las inundaciones de la compleja evolución tecnológica. Las metáforas suelen empezar donde termina la comprensión intuitiva de las nuevas tecnologías.3 Cuanto menos familiarizados nos sentimos con una tecnología, mayor es nuestra necesidad de recurrir al lenguaje visual como conjunto de muletas epistémicas. Las palabras que elegimos para descri

Ética incorporada: una propuesta para integrar la ética en el desarrollo de la IA médica

https://bmcmedethics.biomedcentral.com/articles/10.1186/s12910-022-00746-3   La aparición de preocupaciones éticas en torno a la inteligencia artificial (IA) ha dado lugar a una explosión de principios éticos de alto nivel publicados por una amplia gama de organizaciones públicas y privadas. Sin embargo, es necesario considerar cómo se puede ayudar en la práctica a los desarrolladores de IA a anticipar, identificar y abordar los problemas éticos relacionados con las tecnologías de IA. Esto es especialmente importante en el desarrollo de la IA destinada a los entornos sanitarios, donde las aplicaciones a menudo interactuarán directamente con pacientes en diversos estados de vulnerabilidad. En este artículo, proponemos que un enfoque de "ética integrada", en el que los especialistas en ética y los desarrolladores abordan conjuntamente las cuestiones éticas a través de un proceso iterativo y continuo desde el inicio del desarrollo, podría ser un medio eficaz para integrar consid

Responsabilidad difusa: atribuciones de responsabilidad en el uso de sistemas de apoyo a la decisión clínica impulsados por la IA

https://link.springer.com/article/10.1007/s43681-022-00135-x   La toma de decisiones es una tarea compleja, especialmente en el contexto sanitario. Las posibilidades que abren los sistemas de apoyo a la toma de decisiones clínicas impulsados por la IA (AI-CDSS) en la práctica clínica diaria dan lugar a cuestiones fundamentales en torno a la responsabilidad. En términos causales, morales y jurídicos, la aplicación de los sistemas de apoyo a la toma de decisiones clínicas basados en la IA pone en tela de juicio las atribuciones de responsabilidad existentes. En este contexto, los vacíos de responsabilidad se identifican a menudo como el principal problema. En este artículo, que describe la dinámica cambiante y los niveles de atribución de responsabilidad, sostenemos que la aplicación de la IA-CDSS provoca una difusión de la responsabilidad con respecto a la dimensión causal, moral y jurídica. La difusión de la responsabilidad describe la situación en la que se pueden considerar múltiples

La crueldad de la cultura de autoayuda

https://www.newstatesman.com/ideas/2022/02/the-cruelties-of-self-help-culture Todo lo que necesitamos además del trabajo duro, sugiere la mayoría de la literatura de autoayuda, es dominar "un truco raro". Para Robert Kiyosaki y Sharon Lechter en Padre rico, padre pobre (1997), el truco es la educación financiera. Para El secreto, de Rhonda Byrne, el truco es dominar la "ley de la atracción". Para You are a Badass, el truco es la confianza impermeable. Este contenido puede ser aceite de serpiente, pero, como el mejor aceite de serpiente, ofrece una sacudida de entusiasmo motivador. Para las personas desmoralizadas y debilitadas por las incesantes dificultades y contratiempos, y confundidas por las exigencias y promesas contradictorias del mundo, esto puede resultar estimulante.

La inevitabilidad de los terceros de confianza

https://onezero.medium.com/the-inevitability-of-trusted-third-parties-a51cbcffc4e2  Hay un hilo conductor en la mayoría - posiblemente en todas - las propuestas de blockchain para el bien que escucho: la idea de que podemos sustituir a las personas falibles y poco fiables por libros de contabilidad inmutables y descentralizados, y pedirles que actúen como árbitros y/o agentes de custodia en transacciones complejas entre extraños que no tienen ninguna razón para confiar los unos en los otros.

El sesgo en la IA se está extendiendo y es hora de solucionar el problema

https://venturebeat-com.cdn.ampproject.org/c/s/venturebeat.com/2022/01/29/bias-in-ai-is-spreading-and-its-time-to-fix-the-problem/amp/ El aprendizaje automático comienza con el análisis de una tabla de datos históricos y la producción de lo que se llama un modelo; esto se conoce como entrenamiento. Una vez creado el modelo, se puede introducir una nueva fila de datos en el modelo y se obtiene una predicción. Por ejemplo, se puede entrenar un modelo a partir de una lista de transacciones inmobiliarias y luego utilizarlo para predecir el precio de venta de una casa que aún no se ha vendido. Hoy en día, el aprendizaje automático presenta dos problemas principales. El primero es el problema de la "caja negra". Los modelos de aprendizaje automático hacen predicciones muy precisas, pero carecen de la capacidad de explicar el razonamiento detrás de una predicción en términos comprensibles para los humanos. Los modelos de aprendizaje automático se limitan a dar una predicción y una p

Imágenes de la inteligencia artificial: un punto ciego en la ética de la IA

https://link.springer.com/article/10.1007/s13347-022-00498-3 Resumen Este artículo sostiene que la ética de la IA ha descuidado en general las cuestiones relacionadas con la comunicación científica de la IA. En particular, el artículo se centra en la comunicación visual sobre la IA y, más concretamente, en el uso de ciertas imágenes de archivo en la comunicación científica sobre la IA -en particular, las que se caracterizan por un uso excesivo del color azul y los temas recurrentes, como los rostros andróginos, los cerebros mitad carne y mitad circuito, y las variaciones de La Creación de Adán de Miguel Ángel. En la primera sección, el autor se refiere a una ética "referencialista" de la comunicación científica para una evaluación ética de estas imágenes. Desde esta perspectiva, estas imágenes no son éticas. Mientras que la ética de la comunicación científica suele promover virtudes como la modestia y la humildad, estas imágenes son arrogantes y excesivamente seguras. En la s

Desafíos cognitivos en la colaboración entre humanos e inteligencia artificial: Investigando el camino hacia la delegación productiva

https://www.researchgate.net/publication/356951882_Cognitive_Challenges_in_Human-Artificial_Intelligence_Collaboration_Investigating_the_Path_Toward_Productive_Delegation/fulltext/61b3fd091d88475981df3017/Cognitive-Challenges-in-Human-Artificial-Intelligence-Collaboration-Investigating-the-Path-Toward-Productive-Delegation.pdf?origin=publication_detail Estudiamos cómo los humanos toman decisiones cuando colaboran con una inteligencia artificial (IA) en un entorno en el que los humanos y la IA realizan tareas de clasificación. Nuestros resultados experimentales sugieren que los humanos y la IA que trabajan juntos pueden superar a la IA que supera a los humanos cuando trabaja por su cuenta. Sin embargo, el rendimiento combinado sólo mejora cuando la IA delega el trabajo en los humanos, pero no cuando los humanos delegan el trabajo en la IA. El rendimiento de la IA en materia de delegación mejora incluso cuando delega en sujetos de bajo rendimiento; en cambio, los humanos no delegan bien

Cuidado con la atracción de las narrativas: Los "jueces hambrientos" no deben motivar el uso de la "inteligencia artificial" en el Derecho

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4011603 Resumen: El efecto "juez hambriento", presentado por un famoso estudio, es un punto de referencia común para subrayar el sesgo humano en la toma de decisiones judiciales. Esto es particularmente pronunciado en la literatura sobre la "inteligencia artificial" (IA) en el derecho. En este caso, el efecto se invoca para contrarrestar la preocupación por el sesgo de las ayudas a la decisión automatizadas y para motivar su uso. Sin embargo, la validez del efecto "juez hambriento" es dudosa. En nuestro contexto, esto es problemático por, al menos, dos razones. En primer lugar, las pruebas poco sólidas conducen a una construcción errónea del problema que puede justificar una intervención de la IA. En segundo lugar, pintar el sistema de justicia peor de lo que realmente es, es una estrategia argumentativa peligrosa, ya que socava la confianza institucional. En este contexto, este artículo revisa el estudi

El ojo legal en la tecnología

https://alti.amsterdam/moses-legal-eye/ ¿Qué ve un ojo jurídico cuando mira la tecnología? De vez en cuando, la tecnología arroja algo de interés para los responsables políticos, los abogados y los juristas. La "inteligencia artificial" ha sido un tema reciente, pero uno puede remontarse a la "nanotecnología", la "clonación" o el "ciberespacio". Ninguno de ellos es una "cosa del mundo" inequívoca a la que se pueda apuntar, sino que cada término representa una colección de objetos y prácticas que se agrupan en un momento determinado. Mientras tanto, la tecnología arroja muchas cosas nuevas que aparentemente no interesan a los abogados, al menos fuera de unos pocos especialistas. En este ensayo, analizo qué es lo que atrae al ojo jurídico en la tecnología y qué es lo que se ve. Mi interés por la observación jurídica surge de su impacto. Lo que se ve influye en la forma de conceptualizar los problemas y, en última instancia, en las propues