Entradas

Mostrando entradas de marzo, 2022

¿La inclusión democrática de la inteligencia artificial? Explorando las condiciones de paciencia, agencia y relación para ser miembro de Demos

https://link.springer.com/article/10.1007/s13347-022-00525-3 ¿Deben incluirse las inteligencias artificiales como coautoras de las decisiones democráticas? Según el punto de vista convencional de la teoría democrática, la respuesta depende de la relación entre la unidad política y la entidad que se ve afectada o sometida a sus decisiones. Las condiciones relacionales para la inclusión, estipuladas por los principios de todos los afectados (AAP) y todos los sometidos (ASP), determinan la extensión espacial de la inclusión democrática. Así pues, la IA cumple los requisitos para la inclusión democrática si y sólo si la IA se ve afectada o sometida a las decisiones de la unidad política de forma relevante. En este trabajo se argumenta que la visión convencional es demasiado simple; que descuida las razones democráticas para reconocer sólo a los agentes y/o pacientes morales como participantes en la toma de decisiones. La afirmación que se defiende es que la AAP y la AEP afirman implícitame

Evangelio de la prosperidad

https://reallifemag.com/prosperity-gospel/ A finales del año pasado, el colectivo artístico de Brooklyn MSCHF programó un brazo robótico para hacer 999 copias de un grabado original de Andy Warhol llamado Fairies. Mezclaron el auténtico (valorado en unos 20.000 dólares) con las falsificaciones, "borrando el rastro de la procedencia", y vendieron cada grabado por 250 dólares. "En cierto modo", dijo a la CNN Kevin Wiesner, "codirector creativo" del colectivo, "lo estamos democratizando al permitir que todo el mundo tenga lo que podría ser un Warhol". Un comprador se llevó realmente las Hadas originales, pero cualquier valor o significado que pudiera atribuirse a su autenticidad ha quedado enterrado. Lo que se ha "democratizado" no es la propiedad de un objeto aurático real, sino la fantasía de poder poseerlo. También se podría decir que la lotería Powerball democratiza la riqueza. Este truco se leyó ampliamente como un comentario sobre el

¿Puedo sentir tu dolor? Los factores biológicos y sociocognitivos que determinan la empatía de las personas con los robots sociales

https://link.springer.com/article/10.1007/s12369-021-00787-5 This paper discuss the phenomenon of empathy in social robotics and is divided into three main parts. Initially, I analyse whether it is correct to use this concept to study and describe people’s reactions to robots. I present arguments in favour of the position that people actually do empathise with robots. I also consider what circumstances shape human empathy with these entities. I propose that two basic classes of such factors be distinguished: biological and socio-cognitive. In my opinion, one of the most important among them is a sense of group membership with robots, as it modulates the empathic responses to representatives of our- and other- groups. The sense of group membership with robots may be co-shaped by socio-cognitive factors such as one’s experience, familiarity with the robot and its history, motivation, accepted ontology, stereotypes or language. Finally, I argue in favour of the formulation of a pragmatic

Automatización, trabajo y brecha de rendimiento

https://doi.org/10.1007/s43681-020-00028-x Los rápidos avances en la automatización basada en la IA han provocado una serie de preocupaciones existenciales y económicas. En particular, a medida que las tecnologías de automatización desarrollan una mayor competencia, parecen amenazar los valores asociados al trabajo significativo. En este artículo, nos centramos en uno de esos valores: el valor del logro. Sostenemos que el logro es una parte clave de lo que hace que el trabajo tenga sentido y que los avances en la IA y la automatización dan lugar a una serie de brechas de logro en el lugar de trabajo. Esto podría limitar la capacidad de las personas para participar en formas de trabajo significativas. Las brechas de rendimiento son interesantes, en parte, porque son el reverso de las brechas de responsabilidad (negativas) que ya se han discutido ampliamente en la literatura sobre la ética de la IA. Una vez descrito y explicado el problema de las brechas de rendimiento, el artículo conc

La IA no te robará el trabajo, sólo lo dejará sin sentido

https://iai.tv/articles/ai-wont-steal-your-job-just-make-it-meaningless-auid-2082 Para bien o para mal, muchos de nosotros obtenemos nuestro significado e identidad a través de nuestro trabajo. La amenaza de que la inteligencia artificial y los robots sustituyan los puestos de trabajo humanos, creando un desempleo masivo y una crisis de identidad colectiva, se ha exagerado mucho. Los humanos y la tecnología siguen trabajando codo con codo, pero la tecnología se inmiscuye cada vez más en aspectos de nuestros trabajos que nos dan algún propósito y satisfacción. El problema no es que las nuevas tecnologías nos roben el trabajo, sino que lo dejen sin sentido, afirma John Danaher.

Confianza y fiabilidad en la XAI - Distinción entre medidas actitudinales y conductuales

https://www.researchgate.net/publication/359435718_Trust_and_Reliance_in_XAI_-_Distinguishing_Between_Attitudinal_and_Behavioral_Measures/fulltext/623be1c48f081a732fb9a968/Trust-and-Reliance-in-XAI-Distinguishing-Between-Attitudinal-and-Behavioral-Measures.pdf?origin=publication_detail La confianza se cita a menudo como un criterio esencial para el uso eficaz y el despliegue en el mundo real de la IA. Los investigadores sostienen que la IA debe ser más transparente para aumentar la confianza, por lo que la transparencia es uno de los principales objetivos de la XAI. Sin embargo, la investigación empírica sobre este tema no es concluyente en cuanto al efecto de la transparencia sobre la confianza. Una explicación de esta ambigüedad podría ser que la confianza se operativiza de forma diferente en la XAI. En este documento de posición, abogamos por una clara distinción entre las medidas conductuales (objetivas) de la confianza y las medidas actitudinales (subjetivas) de la confianza. Sin

Choice arremete contra Airbnb por usar un "algoritmo secreto" que juzga si los usuarios son "confiables"

https://thenewdaily.com.au/news/2022/03/22/choice-airbnb-trust-algorithm/ Airbnb podría estar utilizando la toma de decisiones automatizada para expulsar a los usuarios de la plataforma de alquileres a corto plazo, basándose en factores como las redes sociales, el historial laboral y la dirección IP. El grupo de defensa del consumidor Choice denunció a Airbnb en un informe que cuestiona la falta de transparencia en torno al uso de un "algoritmo secreto" que juzga si los usuarios son "dignos de confianza". Según Choice, Airbnb compró la startup de verificación de antecedentes Trooly en 2017. Desde entonces, habría actualizado la patente varias veces, lo que sugiere que está en uso.  En cuanto a la letra pequeña, Airbnb "puede llevar a cabo la elaboración de perfiles" utilizando sus interacciones con la plataforma, así como la información obtenida por terceros.  Su política de privacidad dice que los procesos automatizados, que analizan las actividades de lo

La IA y la mejora humana: La apertura de los estadounidenses se ve atenuada por una serie de preocupaciones

https://www.pewresearch.org/internet/2022/03/17/ai-and-human-enhancement-americans-openness-is-tempered-by-a-range-of-concerns/ Los avances en inteligencia artificial y tecnologías de mejora humana tienen el potencial de rehacer la sociedad estadounidense en las próximas décadas. Una nueva encuesta del Centro de Investigación Pew revela que los estadounidenses consideran prometedoras las formas en que estas tecnologías podrían mejorar la vida cotidiana y las capacidades humanas. Sin embargo, las opiniones del público también se definen por el contexto de cómo se utilizarían estas tecnologías, qué limitaciones habría y quién se beneficiaría -o perdería- si estos avances se generalizan. Fundamentalmente, la cautela se extiende por las opiniones públicas sobre la inteligencia artificial (IA) y las aplicaciones de mejora humana, a menudo centradas en la preocupación por la autonomía, las consecuencias no deseadas y la cantidad de cambios que estos desarrollos podrían suponer para los seres

LA ILUSIÓN DE LA AI - LOS CHATBOTS DE ÚLTIMA GENERACIÓN NO SON LO QUE PARECEN

https://mindmatters.ai/2022/03/the-ai-illusion-state-of-the-art-chatbots-arent-what-they-seem/ "un escupidor fluido de tonterías" porque los algoritmos informáticos no entienden el significado de las palabras. Son como Nigel Richards, que ha ganado varios campeonatos de Scrabble en francés sin conocer el significado de las palabras que deletrea.

En el SXSW, un patético futuro tecnológico lucha por nacer

https://www.vice.com/en/article/88gb75/at-sxsw-a-pathetic-tech-future-struggles-to-be-born Lo que encontré fue una serie de demostraciones y montajes profundamente decepcionantes, mundanos y francamente patéticos que sugieren que si estas tecnologías digitales se apoderan del mundo, será por la cantidad de dinero que tienen sus mayores impulsores y por lo fácil que es que ese dinero genere interés en lugar de algo de verdadera utilidad social.

AI Index 2022

https://aiindex.stanford.edu/wp-content/uploads/2022/03/2022-AI-Index-Report_Master.pdf La inversión privada en IA se disparó mientras se intensificaba la concentración de la inversión: - La inversión privada en IA en 2021 ascendió a unos 93.500 millones de dólares -más del doble de la inversión privada total inversión privada en 2020, mientras que el número de empresas de IA recién financiadas sigue disminuyendo, pasando de 1051 empresas en 2019 y 762 empresas en 2020 a 746 empresas en 2021. En 2020, hubo 4 rondas de financiación por valor de 500 millones o más; en 2021, hubo 15. Estados Unidos y China dominaron las colaboraciones entre países en materia de IA: - A pesar de las crecientes tensiones geopolíticas, Estados Unidos y China tuvieron el mayor número de colaboraciones entre países colaboración entre países en publicaciones sobre IA entre 2010 y 2021, aumentando cinco veces desde 2010. La colaboración entre entre ambos países produjo 2,7 veces más publicaciones que entre el Re

La mayor amenaza de los deepfakes no son los propios deepfakes

https://www.technologyreview.com/2019/10/10/132667/the-biggest-threat-of-deepfakes-isnt-the-deepfakes-themselves/ xtualizado", dice Britt Paris, un experto en estudios de información que recientemente publicó un informe sobre los deepfakes. "Lo que realmente quieren [los actores de la desinformación] no es que cuestiones más, sino que lo cuestiones todo". Como ejemplo, Paris señala los vídeos alterados de Nancy Pelosi y Jim Acosta que se hicieron virales el año pasado. Ambos eran los llamados "cheapfakes" y no deepfakes: su velocidad había sido simplemente manipulada para engañar a los espectadores. "No había forma de detectar estas falsificaciones con métodos técnicos para detectar deepfakes", dice Paris. En su lugar, los periodistas tenían que desacreditarlos, lo que significaba que la gente tenía que confiar en los periodistas. Por último, todos los expertos coinciden en que el público necesita una mayor alfabetización mediática. "Hay una dife

¿Pueden las redes neuronales aprender dos veces el mismo modelo? Investigar la reproducibilidad y el doble descenso desde la perspectiva del límite de decisión

https://arxiv.org/abs/2203.08124 Discutimos métodos para visualizar los límites de decisión de las redes neuronales y las regiones de decisión. Utilizamos estas visualizaciones para investigar cuestiones relacionadas con la reproducibilidad y la generalización en el entrenamiento de redes neuronales. Observamos que los cambios en la arquitectura del modelo (y su sesgo inductivo asociado) provocan cambios visibles en los límites de decisión, mientras que las ejecuciones múltiples con la misma arquitectura producen resultados con fuertes similitudes, especialmente en el caso de arquitecturas amplias. También utilizamos los métodos de límites de decisión para visualizar los fenómenos de doble descenso. Vemos que la reproducibilidad de los límites de decisión depende en gran medida de la anchura del modelo.

Confíe en nosotros, usamos IA: Revelar información a la IA disminuye la confianza de los consumidores en las marcas

https://www.acrwebsite.org/volumes/3000944/volumes/v49/NA-49 Los consumidores confían menos en las marcas cuando revelan información a agentes artificiales (frente a los humanos). Los consumidores creen que la IA compartiría su información con otras partes, lo que aumenta la sensación de explotación, disminuyendo su confianza en las marcas. Las consecuencias negativas pueden mitigarse cuando los consumidores utilizan una aplicación y se garantiza la privacidad.

Decisiones trágicas y la virtud de las brechas de responsabilidad tecnológica

https://philpapers.org/archive/DANTCA-12.pdf Existe la preocupación de que el despliegue generalizado de máquinas autónomas abra una serie de "vacíos de responsabilidad" en toda la sociedad. A lo largo de los años se han propuesto varias articulaciones de estas brechas de responsabilidad tecnológica, junto con varias soluciones potenciales. La mayoría de estas soluciones se centran en "tapar" o "disolver" las lagunas. Este documento ofrece una perspectiva alternativa. Sostiene que los vacíos de responsabilidad tecnológica son, a veces, bienvenidos y que una de las ventajas de las máquinas autónomas es que nos permiten aceptar ciertos tipos de vacíos de responsabilidad. El argumento se basa en la idea de que la moral humana es a menudo trágica. A menudo nos enfrentamos a situaciones en las que las consideraciones morales que compiten entre sí tiran en diferentes direcciones y es imposible equilibrar perfectamente estas consideraciones. Esto aumenta la carga

Privacidad, protección de datos e Inteligencia Artificial ¿una ecuación imposible?

https://diariolaley.laleynext.es/Content/Documento.aspx?params=H4sIAAAAAAAEAMtMSbF1jTAAAkMzS0sjI7Wy1KLizPw8WyMDIyMDYwNLtbz8lNQQF2fb0ryU1LTMvNQUkJLMtEqX_OSQyoJU27TEnOJUtdSk_PxsFJPiYSYAABL2AWtjAAAAWKE En su opinión, la IA no debe ser solo considerada como un riesgo, pues también puede ser una útil herramienta para proteger ese derecho. Sin embargo, aun quedan por perfilar muchos aspectos relacionados con la protección de datos antes de que la nueva norma entre en vigor.

Sobreconfianza - Un Sprint de Diseño para desarrollar iniciativas para mitigar la sobreconfianza en la IA y las tecnologías automatizadas

https://appliedmldays.org/events/amld-epfl-2022/tracks/overtrust-a-design-sprint-to-develop-initiatives-to-mitigate-overtrust-in-ai-and-automated-technologies La confianza en la automatización, definida como "la actitud de que un agente alcanzará los objetivos de un individuo en una situación caracterizada por la incertidumbre y la vulnerabilidad" [1], es un constructo psicológico básico en la interacción entre humanos y máquinas, y ha cobrado un impulso adicional debido a los recientes avances en inteligencia artificial (IA). La provisión de una IA digna de confianza es un objetivo específico de la Comisión de la UE [2], y los investigadores debaten intensamente el tema en campos como la ingeniería de factores humanos [1], el comercio electrónico [4], la interacción hombre-robot [5] y otros. La investigación ha demostrado que las personas desarrollan relaciones de confianza con los sistemas técnicos, lo que influye en cuándo y cómo los humanos confían en las máquinas y en la

¿Pueden los algoritmos ser más justos que las personas?

https://lab.cccb.org/en/can-algorithms-be-fairer-than-people/ Pero -como no queremos ser apocalípticos ni acabar con el peor de los escenarios- podemos esperar que la tecnología más avanzada nos ayude a construir un futuro cada vez más respetuoso con los derechos y valores por los que hemos luchado en las últimas décadas. Cómo podría hacerlo es todavía una incógnita. Ni siquiera sabemos si lo conseguiremos. Lo que sí podemos esperar es que la IA mejore progresivamente y que complemente el conocimiento humano. De momento, no sólo no corrige nuestros errores, sino que a veces incluso los magnifica.

Prediciendo el pasado con Itaca

https://deepmind.com/blog/article/Predicting-the-past-with-Ithaca En un artículo publicado hoy en Nature, presentamos conjuntamente Ithaca, la primera red neuronal profunda que puede restaurar el texto perdido de inscripciones dañadas, identificar su ubicación original y ayudar a establecer la fecha en que fueron creadas. Ítaca lleva el nombre de la isla griega de la Odisea de Homero y se basa en Pythia, nuestro sistema anterior centrado en la restauración de textos, y lo amplía. Nuestras evaluaciones demuestran que Ítaca logra un 62% de precisión en la restauración de textos dañados, un 71% de precisión en la identificación de su ubicación original y puede datar los textos con un margen de 30 años respecto a sus rangos de fechas reales. Los historiadores ya han utilizado la herramienta para reevaluar períodos significativos de la historia griega.

Una revisión de los experimentos de aprendizaje automático en la toma de decisiones de inversión en acciones: por qué la mayoría de los resultados de las investigaciones publicadas no cumplen su promesa en la vida real

https://link.springer.com/article/10.1007/s41060-021-00245-5#Sec16 La naturaleza numérica de los mercados financieros hace que la previsión de mercados y la construcción de carteras sean un buen caso de uso para el aprendizaje automático (ML), una rama de la inteligencia artificial (IA). A lo largo de las dos últimas décadas, varios académicos de todo el mundo (en su mayoría del campo de la informática) han producido un considerable cuerpo de investigación experimental. Muchas publicaciones afirman que las predicciones son muy precisas o que las estrategias de inversión son muy rentables. Al mismo tiempo, el panorama de las inversiones basadas en la IA en el mundo real es ambiguo y carece de casos de éxito destacados (aunque no carece de fracasos destacados). Hemos realizado una revisión bibliográfica de 27 experimentos académicos que abarcan más de dos décadas y los hemos contrastado con ejemplos reales de fondos impulsados por el aprendizaje automático para tratar de explicar esta ap

El aprendizaje profundo se topa con un muro

https://nautil.us/deep-learning-is-hitting-a-wall-14467/ Con todos los retos de la ética y la computación, y los conocimientos necesarios de campos como la lingüística, la psicología, la antropología y la neurociencia, y no sólo de las matemáticas y la informática, hará falta un pueblo para elevar a una IA. No debemos olvidar nunca que el cerebro humano es quizá el sistema más complicado del universo conocido; si queremos construir algo más o menos igual, la colaboración abierta será clave.

¿Dejarías que la inteligencia artificial tomara tus decisiones salariales?

https://www.gartner.com/smarterwithgartner/would-you-let-artificial-intelligence-make-your-pay-decisions Para tomar decisiones empresariales más eficaces, sepa cuándo y por qué complementar lo mejor de la toma de decisiones humana con el poder de los datos y la analítica y la inteligencia artificial (IA).

Hacia un marco de responsabilidad para la IA: consideraciones éticas y jurídicas

https://ieai.mcts.tum.de/wp-content/uploads/2022/03/ResearchBrief_March_Boch_Hohma_Trauth_FINAL_V2.pdf "Con el crecimiento de lo que antes eran pequeñas aplicaciones de IA hasta convertirse en sistemas altamente sistemas muy complejos, la cuestión de quién es responsable de las predicciones o decisiones tomadas por estos sistemas se ha vuelto apremiante. Utilizando el ejemplo de la conducción autónoma, este informe destaca los principales problemas de responsabilidad de los sistemas de IA desde una perspectiva jurídica y ética. ética. Las implicaciones de la rendición de cuentas, incluida la explicabilidad y responsabilidad, pueden encontrarse ya en las directrices actuales. Sin embargo, la transferencia y aplicación de estas directrices al contexto específico de los de los sistemas de inteligencia artificial, así como su exhaustividad, requiere de los sistemas de IA, así como su exhaustividad, requiere más esfuerzos, sobre todo en lo que respecta a las demandas de la sociedad. Po

Algoritmo v Algoritmo

https://scholarship.law.duke.edu/cgi/viewcontent.cgi?referer=&httpsredir=1&article=4116&context=dlj Los críticos dan la voz de alarma sobre el uso gubernamental de los algoritmos digitales, alegando que son demasiado complejos, inescrutables y propensos a la parcialidad. Sin embargo, una evaluación realista de los algoritmos digitales debe reconocer que el gobierno ya se rige por algoritmos de una complejidad y un potencial de abuso posiblemente mayores: los algoritmos implícitos en la toma de decisiones humanas. El cerebro humano funciona con algoritmos a través de complejas redes neuronales. Y cuando los seres humanos toman decisiones colectivas, también operan a través de algoritmos, los que se reflejan en los procesos legislativos, judiciales y administrativos. Sin embargo, es innegable que estos algoritmos humanos fallan y están lejos de ser transparentes. A nivel individual, la toma de decisiones humana adolece de limitaciones de memoria, fatiga, sesgos cognitivos y p

El evangelio del Metaverso

https://techpolicy.press/the-gospel-of-the-metaverse/ El guión promocional de Meta, el evangelio del metaverso, es una visión tecno-salvadora increíblemente condescendiente, que debería parecernos tan increíble como poco atractiva.      

Retos conceptuales del aprendizaje automático interpretable

https://link.springer.com/article/10.1007/s11229-022-03485-5#Abs1 A medida que el aprendizaje automático se ha ido introduciendo en cada vez más sectores de la vida pública y privada, ha aumentado la demanda de explicabilidad de los algoritmos. ¿Cómo podemos hacer que las predicciones de los complejos modelos estadísticos sean más inteligibles para los usuarios finales? Para responder a esta urgente cuestión ha surgido una subdisciplina de la informática conocida como aprendizaje automático interpretable (IML). Se han propuesto numerosos métodos influyentes, desde aproximaciones lineales locales hasta listas de reglas y contrafactuales. En este artículo, destaco tres retos conceptuales que los autores de este campo pasan por alto en gran medida. Sostengo que la gran mayoría de los algoritmos de LMI están plagados de (1) ambigüedad con respecto a su verdadero objetivo; (2) un desprecio por las tasas de error y las pruebas severas; y (3) un énfasis en el producto sobre el proceso. Cada u

Un algoritmo secreto determinará ahora el salario de los conductores de Uber en muchas ciudades

https://themarkup.org/working-for-an-algorithm/2022/03/01/secretive-algorithm-will-now-determine-uber-driver-pay-in-many-cities Uber ha cambiado silenciosamente la forma de pagar a los conductores en varias ciudades importantes de EE.UU., utilizando una nueva función que denomina "Upfront Fares". En lugar de pagar a los conductores por los viajes basándose sólo en el tiempo y la distancia, ahora utiliza un algoritmo "basado en varios factores" para calcular la tarifa. No está claro cuáles son esos factores. Uber ha utilizado durante mucho tiempo un algoritmo de precios para determinar cuánto pagan los pasajeros, que es una de las razones por las que los usuarios a veces ven grandes fluctuaciones de precios. La empresa afirma que la nueva función ofrece a los conductores más transparencia. Pueden ver más detalles de un posible viaje antes de aceptarlo, como la tarifa y los lugares de recogida y entrega, algo que los conductores dicen haber pedido. Antes, la mayoría d