Entradas

Mostrando las entradas etiquetadas como Referencia

Responsabilidad difusa: atribuciones de responsabilidad en el uso de sistemas de apoyo a la decisión clínica impulsados por la IA

https://link.springer.com/article/10.1007/s43681-022-00135-x   La toma de decisiones es una tarea compleja, especialmente en el contexto sanitario. Las posibilidades que abren los sistemas de apoyo a la toma de decisiones clínicas impulsados por la IA (AI-CDSS) en la práctica clínica diaria dan lugar a cuestiones fundamentales en torno a la responsabilidad. En términos causales, morales y jurídicos, la aplicación de los sistemas de apoyo a la toma de decisiones clínicas basados en la IA pone en tela de juicio las atribuciones de responsabilidad existentes. En este contexto, los vacíos de responsabilidad se identifican a menudo como el principal problema. En este artículo, que describe la dinámica cambiante y los niveles de atribución de responsabilidad, sostenemos que la aplicación de la IA-CDSS provoca una difusión de la responsabilidad con respecto a la dimensión causal, moral y jurídica. La difusión de la responsabilidad describe la situación en la que se pueden considerar múlti...

Las implicaciones psicológicas de los robots de compañía: Un marco teórico y un montaje experimental

https://link.springer.com/article/10.1007/s12369-021-00846-x   Resumen En este artículo presentamos un marco teórico para comprender el mecanismo psicológico subyacente en las interacciones entre humanos y robots de compañía. Al principio, tomamos el caso de la Robótica Sexual, donde la dinámica psicológica es más evidente, para después extender la discusión a la Robótica de Compañía en general. En primer lugar, analizamos las diferencias entre un juguete sexual y un Robot Sexual, concluyendo que este último puede establecer una dinámica colusoria y confirmatoria con el usuario. Afirmamos que la colusividad conduce a dos consecuencias principales, como la fijación en un tipo específico y atípico de interacción sexual, llamado parafílico, y a la infantilización del usuario, que explicamos a través del marco teórico de la "teoría de la relación con el objeto". Argumentamos que estas dinámicas pueden degradar hasta un estadio infantil las capacidades relacionales de los usuarios...

Ética de la vigilancia: aprovechamiento del uso de tecnologías de reconocimiento facial en vivo en espacios públicos en espacios públicos para la aplicación de la ley

https://ieai.mcts.tum.de/wp-content/uploads/2021/12/ResearchBrief_December_Fontes-1.pdf La dependencia de los datos es una de las características intrínsecas de la IA. Los datos personales son para alimentar los conjuntos de datos utilizados para entrenar los sistemas de aprendizaje automático y construir modelos algorítmicos. Una vez establecidos los modelos, se pueden aplicarse a los datos personales y utilizarse para analizar o hacer inferencias y predicciones sobre individuos concretos. Esto también se aplica a los sistemas de sistemas de reconocimiento facial, lo que implica riesgos para varios derechos individuales en particular, la privacidad. En este informe, enmarcamos la aplicación de estos sistemas sistemas en el contexto particular de la vigilancia del espacio público por parte de las público con fines policiales. La privacidad, el consentimiento y la proporcionalidad son tres aspectos interrelacionados necesarios para describir la ética de la vigilancia del espacio público...

Si la IA predice tu futuro, ¿sigues siendo libre?

https://www.wired.com/story/algorithmic-prophecies-undermine-free-will/   Carissa Véliz MIENTRAS LEES estas palabras, es probable que haya docenas de algoritmos haciendo predicciones sobre ti. Probablemente fue un algoritmo el que determinó que estarías expuesto a este artículo porque predijo que lo leerías. Las predicciones algorítmicas pueden determinar si consigues un préstamo o un trabajo o un apartamento o un seguro, y mucho más. Estos análisis predictivos están conquistando cada vez más esferas de la vida. Y, sin embargo, nadie te ha pedido permiso para hacer esas predicciones. Ningún organismo gubernamental las supervisa. Nadie le informa sobre las profecías que determinan su destino. Peor aún, una búsqueda en la literatura académica sobre la ética de la predicción muestra que es un campo de conocimiento poco explorado. Como sociedad, no hemos reflexionado sobre las implicaciones éticas de hacer predicciones sobre personas-seres que se supone están dotadas de agencia y libre...

Si la IA predice tu futuro, ¿sigues siendo libre?

https://www.wired.com/story/algorithmic-prophecies-undermine-free-will/ MIENTRAS LEES estas palabras, es probable que haya docenas de algoritmos haciendo predicciones sobre ti. Probablemente fue un algoritmo el que determinó que estarías expuesto a este artículo porque predijo que lo leerías. Las predicciones algorítmicas pueden determinar si consigues un préstamo o un trabajo o un apartamento o un seguro, y mucho más. Estos análisis predictivos están conquistando cada vez más esferas de la vida. Y, sin embargo, nadie te ha pedido permiso para hacer esas predicciones. Ningún organismo gubernamental las supervisa. Nadie le informa sobre las profecías que determinan su destino. Peor aún, una búsqueda en la literatura académica sobre la ética de la predicción muestra que es un campo de conocimiento poco explorado. Como sociedad, no hemos reflexionado sobre las implicaciones éticas de hacer predicciones sobre personas-seres que se supone están dotadas de agencia y libre albedrío. Desafiar ...

La IA y el Todo en el Mundo

https://openreview.net/pdf?id=j6NxpQbREA1 Hay una tendencia en los diferentes subcampos de la IA a valorar una pequeña colección de puntos de referencia influyentes. Estos puntos de referencia actúan como sustitutos de una serie de de problemas comunes ungidos que a menudo se enmarcan como hitos fundacionales en el camino hacia sistemas de IA flexibles y generalizables. El estado de la técnica El rendimiento del estado de la técnica en estos puntos de referencia se considera un indicador del progreso hacia estos objetivos a largo plazo. En este documento de posición, exploramos los límites de estos para poner de manifiesto los problemas de validez de constructo que plantean como medidas como las medidas de progreso funcionalmente "generales" que pretenden ser.

Impugnación jurídica de la toma de decisiones relacionadas con la inteligencia artificial en el Reino Unido: reflexiones para la política

https://www.tandfonline.com/doi/full/10.1080/13600869.2021.1999075 Este documento considera la impugnación legal en el Reino Unido como una fuente de reflexiones útiles para la política de IA. El gobierno ha publicado una "Estrategia Nacional de Inteligencia Artificial", pero no está claro hasta qué punto será eficaz, dadas las dudas sobre los niveles de confianza del público. Una de las principales preocupaciones es la aparente "desviación" de la ley por parte del Reino Unido. Se convocaron una serie de actos para investigar las perspectivas jurídicas críticas sobre estos temas, que culminaron en un taller de expertos que abordó cinco sectores. Los participantes debatieron sobre la IA en el contexto de las tendencias más amplias hacia la toma de decisiones automatizada (ADM). Se espera que continúe la reciente proliferación de acciones legales. Los debates pusieron de manifiesto las diversas formas en que los ejemplos individuales se conectan sistemáticamente con l...

Identidad digital y biometría: Cuando tu cara revela tu estado de vacunación ... y más

https://lens.monash.edu/@politics-society/2021/11/17/1384067/digital-identity-when-your-face-reveals-your-vaccination-status-and-more A medida que muchos australianos salen de las restricciones de cierre, se enfrentan a una serie de nuevos puntos de control: en las tiendas, el lugar de trabajo, los lugares de ocio y las fronteras estatales. Muchos de nosotros no solo tenemos que registrarnos en varios lugares escaneando códigos QR, sino que ahora se nos exige que mostremos una prueba de vacunación y, en algunos contextos, una prueba de pruebas de COVID-19 negativas. El resultado ha sido la imagen cada vez más familiar de personas tanteando con sus teléfonos inteligentes en la acera frente a cualquier espacio en el que intentan entrar. En algunos casos, esto puede significar frustrantes combates con las aplicaciones ("¿Cuál era el código PIN de la aplicación de Medicare?"; "¿Lo he vinculado a mi cuenta de MyGov?"; "¿Dónde está ese texto con los resultados de mis...

La falacia de la entrada

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3571266 La fijación algorítmica de los precios del crédito amenaza con discriminar a los grupos protegidos. Tradicionalmente, la ley de préstamos justos ha abordado estas amenazas mediante el escrutinio de los insumos. Pero el escrutinio de los insumos se ha convertido en una falacia en el mundo de los algoritmos. Utilizando un rico conjunto de datos de hipotecas, simulo la fijación de precios de créditos algorítmicos y demuestro que el escrutinio de los insumos no aborda los problemas de discriminación y amenaza con crear un mito algorítmico de daltonismo. La ubicuidad de las correlaciones en los grandes datos, combinada con la flexibilidad y la complejidad del aprendizaje automático, significa que no se puede descartar la consideración de características protegidas, como la raza, incluso cuando se excluyen formalmente. Además, el uso de datos que incluyan características protegidas puede, de hecho, reducir los resultados dispares. S...

EL ELEVADO COSTE DE LA CAPTURA

https://interactions.acm.org/archive/view/november-december-2021/the-steep-cost-of-capture Este es un momento peligroso. Los sistemas informáticos privados comercializados como inteligencia artificial (IA) se están introduciendo en nuestra vida e instituciones públicas, concentrando el poder industrial, agravando la marginación y configurando silenciosamente el acceso a los recursos y la información. ins01.gif A la hora de considerar cómo hacer frente a este ataque de la IA industrial, debemos reconocer en primer lugar que los "avances" de la IA celebrados en la última década no se debieron a avances científicos fundamentales en las técnicas de IA. Fueron y son principalmente el producto de una concentración significativa de datos y recursos de computación que residen en las manos de unas pocas grandes corporaciones tecnológicas. La IA moderna depende fundamentalmente de los recursos y las prácticas comerciales de las empresas, y nuestra creciente dependencia de dicha IA cede...

Anticiparse a las consecuencias tecnoeconómicas: La innovación sociotécnica impulsada por el propósito

https://technologyandsociety.org/transactions/current-edition/ ESTE número especial está dedicado a varios temas que abarcan la tecnoeconomía y la innovación sociotécnica en relación con la tecnología de interés público (TIP). El paradigma tecnoeconómico sustenta la teoría del desarrollo económico y social basada en la innovación [punto 1) del Apéndice]. En la edición de junio de IEEE TRANSACTIONS ON TECHNOLOGY AND SOCIETY, Abbas et al. [punto 2) del Apéndice] escribieron sobre la motivación para la invención y la innovación. Ciertamente, reconocemos reconocemos el paso de un enfoque mecanicista a un enfoque evolutivo en la economía, pero creemos que aún es necesario que es necesario un cambio más, uno que implica inyectar de diseño socio-técnico para la proliferación de las TIP. de las TIP. Se trata de reconocer que el "desarrollo de la sociedad" debe ser el aspecto dominante al considerar el paradigma tecnoeconómico, que en primera instancia requiere una evaluación de la fo...

La trampa de la auditoría algorítmica

https://onezero.medium.com/the-algorithmic-auditing-trap-9a6f2d4d461d Este artículo de opinión ha sido escrito por Mona Sloane, socióloga e investigadora científica senior del Centro para la Inteligencia Artificial Responsable de la Universidad de Nueva York (NYU) y miembro del Instituto para el Conocimiento Público de la NYU. Su trabajo se centra en el diseño y la desigualdad en el contexto de los algoritmos y la inteligencia artificial. Tenemos una nueva carrera de la Inteligencia Artificial en nuestras manos: la carrera para definir y dirigir lo que significa auditar algoritmos. Los órganos de gobierno saben que deben encontrar soluciones al daño desproporcionado que pueden causar los algoritmos. Esta tecnología tiene un impacto desproporcionado en las minorías raciales, las personas económicamente desfavorecidas, las mujeres y las personas con discapacidad, con aplicaciones que van desde la atención sanitaria hasta la asistencia social, la contratación y la educación. En este caso,...

¿Podemos equivocarnos con un robot?

https://link.springer.com/article/10.1007/s00146-021-01278-x Con el desarrollo de robots sociables cada vez más sofisticados, las relaciones entre robots y humanos se están transformando. Los robots sociables no sólo pueden proporcionar apoyo emocional y compañía a los humanos, sino que éstos también pueden establecer relaciones con los robots que valoran mucho. Es natural preguntarse si los robots que mantienen relaciones estrechas con nosotros tienen algún valor moral más allá de su valor puramente instrumental como medios para los fines humanos. Podríamos plantear nuestra pregunta de la siguiente manera: "¿Existen formas de actuar hacia los robots que serían incorrectas para el robot?". Para abordar esta cuestión, la Parte I expone los enfoques estándar de la posición moral: apelar a las propiedades intrínsecas, a las respuestas humanas y a los valores inherentes a las relaciones. La segunda parte explora en detalle la tercera estrategia, la relacional. Más allá de los aná...

Vigilancia como Servicio

https://oxcaigg.oii.ox.ac.uk/wp-content/uploads/sites/124/2021/11/SaaS_Yung_Au_Nov_2021.pdf RESUMEN EJECUTIVO Este informe examina el mercado europeo que produce y exporta sistemas de vigilancia asistida por IA a gobiernos de todo el mundo. En particular, examina lo que lo que llamamos "Vigilancia como Servicio" (SaaS): servicios y software que se proporcionan para la vigilancia, y que consisten en de sistemas complejos que se ofrecen con interfaces fáciles de usar de fácil uso, así como un mantenimiento continuo, actualizaciones y y soporte para la resolución de problemas (en lugar de una compra única). Este análisis se centra en tres ejemplos de estos servicios que que se han vuelto especialmente controvertidos últimamente: el reconocimiento y el análisis facial, el reconocimiento y el análisis de la voz. reconocimiento y análisis faciales, el reconocimiento y análisis del habla y los sistemas de análisis del comportamiento y de empuje. Estimar el tamaño del mercado de esta...

El derecho a impugnar la IA

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3965041 La inteligencia artificial (IA) se utiliza cada vez más para tomar decisiones importantes, desde la selección de las admisiones universitarias hasta la determinación de los préstamos y la distribución de las vacunas COVID-19. Estos usos de la IA suscitan una serie de preocupaciones sobre la discriminación, la precisión, la equidad y la responsabilidad. En Estados Unidos, las propuestas recientes para regular la IA se centran en gran medida en la gobernanza ex ante y sistémica. Este artículo defiende, en cambio -o en realidad, además-, un derecho individual a impugnar las decisiones de IA, basado en el debido proceso pero adaptado a la era digital. La Unión Europea, de hecho, reconoce tal derecho, y un número creciente de instituciones de todo el mundo reclaman ahora su establecimiento. Este artículo sostiene que, a pesar de las considerables diferencias entre Estados Unidos y otros países, el establecimiento del derecho a impu...

El riesgo existencial de la IA y la ortogonalidad: ¿Podemos tenerlo todo?

https://onlinelibrary.wiley.com/doi/full/10.1111/rati.12320#.YZLnhBoccAM.twitter El argumento estándar para concluir que la inteligencia artificial (IA) constituye un riesgo existencial para la especie humana utiliza dos premisas: (1) La IA puede alcanzar niveles superinteligentes, momento en el que los humanos perderemos el control (la "afirmación de la singularidad"); (2) Cualquier nivel de inteligencia puede ir unido a cualquier objetivo (la "tesis de la ortogonalidad"). La tesis de la singularidad requiere una noción de "inteligencia general", mientras que la tesis de la ortogonalidad requiere una noción de "inteligencia instrumental". Si esta interpretación es correcta, no pueden unirse como premisas y el argumento del riesgo existencial de la IA resulta inválido. Si la interpretación es incorrecta y ambas premisas utilizan la misma noción de inteligencia, entonces al menos una de las premisas es falsa y la tesis de la ortogonalidad sigue si...

Investigción en IA Responsable: retos y oportunidades

https://youtu.be/7Ss6J3UBhz0 Excelente intervención de Margaret Mitchell y de Gabrielle Samuel

Es hora de un discurso científico honesto sobre la IA y el aprendizaje profundo, con Gary Marcus

https://www.carnegiecouncil.org/studio/multimedia/20211103-honest-scientific-discourse-ai-deep-learning-gary-marcus Empezaré diciendo que mi primer amor verdadero es entender la mente -¿cómo consigue la mente humana hacer las cosas que hace?-, muchas de las cuales son impresionantes, pero no todas lo son, por lo que una vez escribí un libro llamado Kluge, que trata de las formas en que la mente no es muy impresionante. Pero en la última década me he centrado principalmente en la inteligencia artificial, que en realidad era mi interés cuando era un niño. Así que volví y completé el círculo de mis primeros intereses, pero ahora mirando la inteligencia artificial a través del estudio de la mente. Y no me ha gustado mucho lo que he visto. Primero me quedé al margen escribiendo sobre el tema, y luego decidí entrar realmente en el campo de la IA y empezar a crear empresas. Vendí la primera. Sigo intentando comprender cómo podemos crear una IA que sea al menos tan, digamos, fiable como los se...

Bien Social

https://medium.com/a-new-ai-lexicon/a-new-ai-lexicon-social-good-c71edab270d3   Muy pocos trabajos ofrecen una definición concisa del término, y nuestro análisis de la literatura revela que las definiciones de IA para el bien social tienen tres características principales. En primer lugar, suelen ser amplias, con aspiraciones y vacías. Por ejemplo, Garlington, Colins y Bossaller (2019) entienden el bien social como el logro del "bienestar humano a gran escala." Véase también la definición proporcionada por Floridi et al., (2018), en el centro de un proyecto de IA para el bien social está la promoción de los principios de la dignidad humana y el florecimiento. En un intento de desentrañar la definición, los autores esbozan cuatro tipos de beneficios que ofrecen las tecnologías de IA y los correspondientes riesgos que deben tenerse en cuenta: (1) permitir la autorrealización humana sin devaluar las capacidades humanas; (2) mejorar la agencia humana, sin eliminar la responsabili...

El impacto de las explicaciones en la confianza de los profanos en las aplicaciones de comprobación de síntomas basadas en la inteligencia artificial: Estudio experimental

https://www.jmir.org/2021/11/e29386/ Dependiendo del grupo de tratamiento, se generaron dos o tres variables que reflejaban el conocimiento previo y el modelo mental posterior que tenían los participantes. Al variar el tipo de explicación según la enfermedad, la migraña resultó no significativa (P=0,65) y la arteritis temporal, marginalmente significativa (P=0,09). Al variar la enfermedad según el tipo de explicación se obtuvo significación estadística para la influencia de la entrada (P=0,001), la prueba social (P=0,049) y la ausencia de explicación (P=0,006), con una explicación contrafactual (P=0,053). Los resultados sugieren que la confianza en las explicaciones se ve significativamente afectada por la enfermedad que se explica. Cuando los profanos tienen conocimientos sobre una enfermedad, las explicaciones tienen poco impacto en la confianza. Cuando la necesidad de información es mayor, los distintos tipos de explicaciones generan niveles de confianza significativamente diferente...