Entradas

Mostrando las entradas etiquetadas como Manual IA

Gran promesa pero potencial de peligro

 Pero su promesa revolucionaria de hacer cosas como mejorar la eficiencia, reducir los costos y acelerar la investigación y el desarrollo se ha atenuado últimamente con la preocupación de que estos sistemas complejos y opacos puedan causar más daño social que beneficio económico. Prácticamente sin supervisión del gobierno de EE. UU., Las empresas privadas utilizan software de inteligencia artificial para tomar decisiones sobre salud y medicina, empleo, solvencia e incluso justicia penal sin tener que responder por cómo se aseguran de que los programas no estén codificados, consciente o inconscientemente, con sesgos estructurales. https://news.harvard.edu/gazette/story/2020/10/ethical-concerns-mount-as-ai-takes-bigger-decision-making-role/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los punto...

LA INTELIGENCIA ARTIFICIAL Y EL PROBLEMA DE LA AUTONOMÍA

 Se dice de manera rutinaria que los sistemas de inteligencia artificial (IA) operan de manera autónoma, exponiendo brechas en los regímenes regulatorios que asumen la centralidad de los actores humanos. Sin embargo, sorprendentemente se presta poca atención a lo que se entiende por "autonomía" y su relación con esas brechas. Los vehículos sin conductor y los sistemas de armas autónomos son los ejemplos más estudiados, pero surgen problemas relacionados en los algoritmos que asignan recursos o determinan la elegibilidad para programas en el sector público o privado. Este artículo desarrolla una novedosa tipología de autonomía que distingue tres desafíos regulatorios discretos que plantean los sistemas de IA: las dificultades prácticas de gestionar el riesgo asociado con las nuevas tecnologías, la moralidad de que ciertas funciones sean asumidas por las máquinas y la brecha de legitimidad cuando las autoridades públicas delegan sus poderes a los algoritmos. https://ndlsjet.com...

El nuevo concepto de privacidad: la transformación estructural de la visibilidad

  El concepto de  privacidad  ha ido cobrando protagonismo en el debate público y académico según han ido aumentando las voces que proclaman su desaparición por los efectos de las tecnologías de la información. A diferencia de otros conceptos limítrofes —como  intimidad  o  vida privada —, este nuevo concepto de privacidad comprende un nuevo régimen de visibilidad que afecta a la configuración del espacio público digital (EPD). A través del estudio histórico de cómo se ha formado este nuevo concepto, expongo las cuatro dimensiones del contexto de experiencia que recoge: 1) la imposibilidad del secreto en el ciberespacio; 2) el desarrollo de una economía de la vigilancia que ha llevado a la hiperfragmentación del EPD y 3) a la transformación de la visibilidad de este ámbito público, y 4) el carácter esencialmente reactivo de este nuevo concepto de privacidad. https://recyt.fecyt.es/index.php/RevEsPol/article/view/74389 Editado por Aniceto Pérez y Madrid, Esp...

First Steps Towards an Ethics of Robots and Artificial Intelligence

 Este artículo ofrece una descripción general de las principales cuestiones éticas de primer orden planteadas por los robots y la inteligencia artificial (RAI) en cinco grandes rubros: funcionalidad, importancia inherente, derechos y responsabilidades, efectos secundarios y amenazas. La primera letra de cada rúbrica en conjunto genera convenientemente el acrónimo FIRST. Se presta especial atención a las rúbricas de funcionalidad y significado inherente dada la centralidad de la primera y la tendencia a descuidar la segunda en virtud de su carácter algo nebuloso y controvertido. Además de explorar algunos problemas ilustrativos que surgen bajo cada rúbrica, el artículo también enfatiza una serie de temas más generales. Estos incluyen: la multiplicidad de niveles interactivos en los que surgen preguntas éticas sobre los RAI, la necesidad de reconocer que los RAI potencialmente implican a toda la gama de valores humanos (en lugar de exclusiva o principalmente a un subconjunto fácilmen...

Aprendizaje automático interpretable: breve historia, estado de la técnica y desafíos

 Presentamos una breve historia del campo del aprendizaje automático interpretable (IML), brindamos una descripción general de los métodos de interpretación de vanguardia y discutimos los desafíos. La investigación en IML se ha disparado en los últimos años. Tan joven como es el campo, tiene más de 200 años de raíces en el modelado de regresión y el aprendizaje automático basado en reglas, a partir de la década de 1960. Recientemente, se han propuesto muchos métodos nuevos de IML, muchos de ellos independientes del modelo, pero también técnicas de interpretación específicas para el aprendizaje profundo y los conjuntos basados ​​en árboles. Los métodos de IML analizan directamente los componentes del modelo, estudian la sensibilidad a las perturbaciones de entrada o analizan aproximaciones sustitutas locales o globales del modelo de ML. El campo se acerca a un estado de preparación y estabilidad, con muchos métodos no solo propuestos en la investigación, sino también implementados e...

La innovación disruptiva y la incertidumbre moral

 Este artículo desarrolla una explicación filosófica de la ruptura moral. Según Robert Baker (2013), la disrupción moral es un proceso en el que las innovaciones tecnológicas socavan las normas morales establecidas sin conducir claramente a un nuevo conjunto de normas. Aquí analizo este proceso en términos de incertidumbre moral, formulando un relato filosófico con dos variantes. En la Cuenta de daños, tal incertidumbre es siempre dañina porque bloquea nuestro conocimiento de nuestras obligaciones morales y de los demás. En la Cuenta del Daño Calificado, no hay daño en los casos en que la incertidumbre moral está relacionada con la innovación que es "para lo mejor" en una perspectiva histórica, o donde la incertidumbre es la expresión de una virtud deliberativa. Los dos relatos se comparan aplicándolos al caso histórico de Baker sobre la introducción de tecnologías de ventilación mecánica y trasplante de órganos, así como al caso actual de prácticas de datos masivos en el dom...

Qué significa ser eticista de la IA

  A pesar de que existe un fuerte llamado a la tecnología responsable, el camino hacia la puesta en práctica de la ética aún no se ha entendido completamente. Para ayudar a guiar la implementación de la ética, hemos visto el surgimiento de un nuevo título profesional; el especialista en ética de la IA. Sin embargo, aún no está claro qué debe incluir el rol y el conjunto de habilidades de esta nueva profesión. El propósito de este artículo es ofrecer una definición preliminar de lo que significa ser un especialista en ética de la inteligencia artificial examinando primero el concepto de especialista en ética en el contexto de la inteligencia artificial, seguido de explorar qué responsabilidades se agregan al rol en la industria específicamente, y terminando en la característica fundamental que subyace a todo: la valentía. https://link.springer.com/article/10.1007/s43681-020-00020-5 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Ac...

IA responsable y responsabilidad moral: una apreciación común

  La responsabilidad es una de las palabras de moda más extendidas en la ética de la inteligencia artificial (IA) y la robótica. Sin embargo, el término a menudo permanece sin fundamento cuando se emplea en estos importantes dominios tecnológicos. De hecho, nociones como "IA responsable" y "robótica responsable" pueden parecer atractivas, ya que parecen transmitir un sentido de bondad moral o aprobación ética, lo que incita a conexiones psicológicas con la autorregulación, la aceptación social o la corrección política. Para que la IA y la ética se unan de manera verdaderamente armoniosa, tendremos que trabajar para establecer una apreciación común. En este comentario, analizo tres variedades del término e invoco ideas de la literatura sobre ética analítica como un medio para ofrecer una comprensión sólida de la responsabilidad moral en la tecnología emergente. Si bien no deseo acusar a ninguna de las partes de un uso incorrecto, espero que juntos los investigadores ...

Censura algorítmica por plataformas sociales: poder y resistencia

 La moderación eficaz del contenido por parte de las plataformas sociales es importante y difícil; Numerosos problemas surgen del volumen de información, la naturaleza culturalmente sensible y contextual de esa información y los matices de la comunicación humana. Al intentar escalar la moderación, las plataformas sociales adoptan cada vez más enfoques automatizados para suprimir las comunicaciones que consideran indeseables. Sin embargo, esto trae sus propias preocupaciones. Este artículo examina los efectos estructurales de la censura algorítmica por parte de las plataformas sociales para ayudar a desarrollar una comprensión más completa de los riesgos de tales enfoques para la moderación del contenido. Este análisis muestra que la censura algorítmica se distingue por dos razones: (1) por poner potencialmente al alcance todas las comunicaciones realizadas en las plataformas sociales y (2) por permitir que esas plataformas adopten un enfoque intervencionista más activo para moderar...

IA y Ética

  Dado que es de vital importancia que los sistemas autónomos, ya sean software o hardware, que interactúan con los seres humanos (y quizás también con otros seres sensibles) se comporten de manera ética, consideramos seis posibles enfoques para lograrlo. Argumentamos que los cinco primeros enfoques no son satisfactorios y defendemos el último enfoque, el enfoque que hemos adoptado. Implica descubrir características éticamente relevantes y los correspondientes deberes prima facie presentes en las diversas acciones posibles que tal sistema podría tomar en dominios particulares y descubrir principios de decisión para cuando haya un conflicto entre esos deberes. Además, mantenemos que hay una serie de beneficios adicionales al adoptar este enfoque que implican ser más claros sobre la ética humana, además de la ética a la que deben adherirse los sistemas autónomos, y la posibilidad de que pueda conducir a proporcionar inspiración para los humanos. comportarse de manera más ética. https...

Ética de los vehículos automatizados y conectados

Este informe presenta el trabajo de un europeo Grupo de expertos de la Comisión establecido para asesorar sobre cuestiones éticas específicas planteadas por la movilidad sin conductor para el transporte por carretera. El informe tiene como objetivo promover un transición responsable a conectado y vehículos automatizados (CAV) apoyando partes interesadas en la inclusión sistemática de consideraciones éticas en el desarrollo y regulación de CAV. En los últimos años, las cuestiones éticas asociado con conectado y automatizado vehículos (CAV) han sido objeto de escrutinio académico y público. Una común narrativa presenta el desarrollo de CAV como algo que inevitablemente beneficiar a la sociedad reduciendo el número de muertes en carretera y emisiones nocivas de transporte y mejorando la accesibilidad de los servicios de movilidad. En contraste, este informe aplica una Investigación Responsable y Enfoque de innovación (RRI) para CAV. Esta enfoque reconoce el potencial de CAV tecnología par...

Derechos Humanos e Inteligencia Artificial

La inteligencia artificial puede tener un impacto positivo en el ejercicio de determinados derechos, pero otros pueden verse menoscabados por su uso como: la libertad de expresión (incluyendo el derecho a comunicar o recibir información libremente), la privacidad, la prohibición de la discriminación, y el derecho a la tutela judicial efectiva. Las organizaciones internacionales dedicadas a la protección de los derechos humanos están actualmente reflexionando sobre estos riesgos y las posibles soluciones para ayudar a sus Estados miembros a responder a estos retos, así se presentan las acciones llevadas a cabo en el marco universal por las Naciones Unidas y en el ámbito europeo por el Consejo de Europa y la Unión Europea. https://www.academia.edu/42136124/Derechos_Humanos_e_Inteligencia_Artificial?email_work_card=view-paper  Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos pub...

Inteligencia artificial, atribución de responsabilidad y justificación relacional de la explicabilidad

 Este artículo analiza el problema de la atribución de responsabilidades que plantea el uso de tecnologías de inteligencia artificial (IA). Se supone que solo los humanos pueden ser agentes responsables; sin embargo, esto por sí solo ya suscita muchas cuestiones, que se discuten a partir de dos condiciones aristotélicas de la responsabilidad. Junto al conocido problema de muchas manos, se identifica el tema de “muchas cosas” y se enfatiza la dimensión temporal cuando se trata de la condición de control. Se presta especial atención a la condición epistémica, que llama la atención sobre los temas de transparencia y explicabilidad. Sin embargo, a diferencia de las discusiones estándar, se argumenta luego que este problema de conocimiento sobre los agentes de responsabilidad está vinculado al otro lado de la relación de responsabilidad: los destinatarios o “pacientes” de responsabilidad, quienes pueden exigir razones de las acciones y decisiones tomadas por usando IA. Inspirada por un ...

La Ética de los algoritmos: problemas y soluciones

Es un paper que recoge los problemas éticos que trae la IA, desde Bias, Responsabilidad. privacidad y opacidad Es un documento amplio y completo, y no enduza la complejidad del problema. https://www.academia.edu/43793187/The_Ethics_of_Algorithms_Key_Problems_and_Solutions?email_work_card=view-paper Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Los riesgos de usar IA en la defensa nacional

Extraordinaria charla de Mariarosaria Taddeo sobre la  naturaleza de la IA y los riesgos que comporta su uso en defensa. Habla sobre ciberseguridad. El resumen es que no se debe usar https://youtu.be/e6cvXffMYJs Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)