Entradas

Mostrando entradas de julio, 2020

Mitos de la IA

Esta web es una colección de artículos bien documentados sobre temas controvertidos en el uso de la IA. Evidentemente es desmitificadora. Con cada avance genuino en el campo de la "inteligencia artificial", vemos un aumento paralelo de exageraciones, mitos, conceptos erróneos e inexactitudes. Estos malentendidos contribuyen a la opacidad de los sistemas de IA, haciéndolos mágicos, inescrutables e inaccesibles a la vista del público. https://www.aimyths.org/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

El engaño de los datos: proteger los datos individuales no es suficiente cuando el daño es colectivo

El 17 de marzo de 2018, las preguntas sobre la privacidad de los datos explotaron con el escándalo de la consultora Cambridge Analytica, previamente desconocida. Los legisladores todavía están lidiando con la actualización de las leyes para contrarrestar los daños del big data y la inteligencia artificial. En la primavera de 2020, la pandemia de Covid-19 trajo preguntas sobre suficientes protecciones legales al debate público, con advertencias urgentes sobre las implicaciones de privacidad de las aplicaciones de rastreo de contactos. Pero las consecuencias de la vigilancia de las secuelas de la pandemia son mucho mayores que cualquier aplicación: el transporte, la educación, los sistemas de salud y las oficinas se están convirtiendo en vastas redes de vigilancia. Si solo consideramos compensaciones individuales entre sacrificios de privacidad y supuestos beneficios para la salud, perderemos el punto. La naturaleza colectiva de Big Data significa que las personas se ven más afectadas po

Qué sifnifica para las personas el Futuro de la Inteligencia Artificial

Ensayo sobre la interacción hombre-máquina. Durante milenios, las capacidades para razonar, procesar un lenguaje complejo, pensar de manera abstracta y contemplar el futuro se consideraron exclusivamente humanas. Ahora, la inteligencia artificial está preparada para trascender nuestro dominio en todos estos ámbitos. De repente, no somos tan especiales. "Tal vez resulta que no somos los más racionales o los mejores tomadores de decisiones", dice Gratch. "Tal vez, de una manera extraña, la tecnología nos está enseñando que no es tan importante. Realmente se trata de la emoción y las conexiones entre las personas, lo cual no es algo malo para enfatizar ". Thompson sugiere que otro dilema radica en la tendencia de los humanos a definirse por lo que no somos. No somos, por ejemplo, caracoles, fantasmas o máquinas. Ahora, esta línea también parece estar borrosa. "Las personas pueden relacionarse más fácilmente con un androide racional e interactivo que con una especi

Nueva York prohíbe el reconocimiento facial en las escuelas

La legislatura de Nueva York aprobó hoy una moratoria sobre el uso del reconocimiento facial y otras formas de identificación biométrica en las escuelas hasta 2022. El proyecto de ley, que aún no ha sido firmado por el gobernador Andrew Cuomo, responde al lanzamiento del reconocimiento facial por parte de la Lockport City School District y parece ser el primero en la nación en regular o prohibir explícitamente el uso de la tecnología en las escuelas. https://venturebeat.com/2020/07/22/new-york-bans-use-of-facial-recognition-in-schools-statewide/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Rite Aid ha desplegado sistemas de reconocimiento facial en cientos de tiendas de barrios pobres

Según la empresa los han desactivado a causa del revuelo sobre reconocimiento facial surgido tras la muerte de George Floyd. Reuters afirma en la noticia que las cámaras están en barrios de bajo nivel económico en mayor porcentaje que en otros y que son de una compañía que tiene lazos con China. https://www.reuters.com/investigates/special-report/usa-riteaid-software/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Según un estudio del NIST el uso de mascarillas reduce la precisión de los algoritmos de reconocimiento facial

Se estima que empeoran entre un 5 y un 50%. Más si son negras. La mascarilla sirve para parar dos enfermedades: coronavirus y la vigilancia masiva https://www.theverge.com/2020/7/28/21344751/facial-recognition-face-masks-accuracy-nist-study Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Inteligencia artificial: requisitos éticos y legales

Es una propuesta de regulación de la ia en la UE, Una evaluación de impacto inicial. El periodo de comentarios es del 23 de julio al 23 de septiembre de 2020. https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12527-Requirements-for-Artificial-Intelligence Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Cuatro Principios para integrar la IA y el Buen Gobierno

Es el primer documento de la Comisión Oxford de IA & Buen Gobierno. La inteligencia artificial (IA) ha llegado al sector público. Prometedora de resolver Algunos de nuestros desafíos sociales y de políticas públicas más apremiantes, AI ser cada vez más generalizado. Muchos gobiernos, agencias e instituciones públicas.  Ya empleamos IA en la prestación de servicios públicos, el distribución de recursos y entrega de gobernanza bienes. En el sector público, la gobernanza habilitada para IA puede permitirse nuevas eficiencias que tienen el potencial de transformar una amplia gama de tareas de servicio público. Pero el diseño miope y el uso de IA pueden crear nuevos problemas, afianzar desigualdades existentes y calcificar y finalmente socavar las organizaciones gubernamentales. Marcos para la adquisición e implementación de IA en el servicio público se han mantenido ampliamente subdesarrollado. Con frecuencia, las regulaciones existentes y las leyes nacionales ya no son adecuadas para

Las peticiones policiales del historial de localización de los usuarios de Google bajo estudio

Es cada vez más frecuente la petición de información de datos de localización de los usuarios por las agencias de mantenimiento de la ley. Hay una ley en el Congreso de EEUU para prohibir este tipo de peticiones, pero el coronavirus la ha frenado, https://www.wsj.com/articles/police-requests-for-google-users-location-histories-face-new-scrutiny-11595842201 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La poli de San Francisco accedió a una red de cámaras privada para espiar a los protestantes

Es una red de cámaras para vigilancia del barrio, grabar impuestos, etc. A pesar de la prohibición en SF del uso de cámaras de vigilancia, pidió acceso a imágenes en vivo y le fue concedido. https://www.eff.org/deeplinks/2020/07/san-francisco-police-accessed-business-district-camera-network-spy-protestors Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Espionaje en el colegio

Muchas escuelas en EEUU y UK han adoptado sistemas que leen los correos y redes sociales de los alumnos, detectan palabras y búsquedas, como "gay", suicidio", o tacos y envían inmediatamente al alumno o a la dirección del colegio un aviso. Según el grado de "amenaza" incluye aviso a la policía. Tras los tiroteos en varias escuelas, se han adoptado estas medidas. Si no se realiza esta vigilancia y hay un problema, los padres podrían demandar a la escuela. Si se usan estas medidas, los alumnos se molestan por ser vigilados y a veces se cambian a otros sistemas no supervisados. Los padres no ayudan, quieren tener conocimiento de lo que escribe, visita o busca su retoño. https://www.theguardian.com/world/2019/oct/22/school-student-surveillance-bark-gaggle Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y

Nueva Zelanda reclama ser el primer país en poner normas para el uso de algoritmos por el gobierno

Tras varios casos sonados, el gobierno ha firmado con 19 agencias para hacer los algoritmos explicables, publicar el código fuente o posibilitar que los ciudadanos lo pidan. https://www.theguardian.com/world/2020/jul/28/new-zealand-claims-world-first-in-setting-standards-for-government-use-of-algorithms Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Los investigadores encuentran evidencia de sesgos en los conjuntos de datos de expresiones faciales

El artículo primero muestra los resultados de un estudio sobre dos datasets en cuanto a sexo, serio/sonriente, raza y el resultado es muy poco equilibrado. Luego resalta que hay investigadores, como Kate Crawfowd de AI Now que asegura que no existe un patrón que garantice la expresión facial a emociones ysin empabargo se está usando en reclutamieto y aseguradoras. https://venturebeat.com/2020/07/24/researchers-find-evidence-of-bias-in-facial-expression-data-sets/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Un modelo de gobernanza de la ia en Salud

Si bien hay un camino por recorrer antes de que los modelos de IA se conviertan en una característica regular de la prestación de atención médica, el camino para su uso ya se ha establecido. Los productos médicos de AI ya están en el mercado y existe una evidencia creciente de la eficacia del software médico de AI en la toma de decisiones clínicas. 1,37 A pesar de algunas discusiones sobre la moralidad de la IA en la atención médica, muy pocas investigaciones han ido más allá de la ética para considerar los aspectos legales y de gobernanza. Para abordar esta brecha, propusimos un modelo de gobernanza que cubre la introducción y la implementación de modelos de IA en la atención médica. Nuestro modelo de ninguna manera es compatible para cubrir todas las eventualidades que puedan surgir debido al uso de IA en la prestación de atención médica. No obstante, al incorporar elementos básicos esenciales para el uso seguro y ético de la IA en la atención médica, está diseñada para ser lo sufici

La Ética de la IA no son los toppings del pastel

La ética en la IA no es la guinda, es algo que debe "trufar" todo el desarrollo, https://www-forbes-com.cdn.ampproject.org/c/s/www.forbes.com/sites/forbescommunicationscouncil/2020/07/13/not-just-the-sprinkles-on-top-baking-ethics-into-ai-design/amp/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La (in)credibilidadde modelos para no expertos

Concluyo que: Cuando muchos han pedido una mayor transparencia (Diakopoulos & Friedler, 2016; Pasquale, 2015), demuestro que lograr la transparencia es, en el mejor de los casos, problemático y, en el peor, inalcanzable para los no expertos. Los modelos que estudié aquí eran cuantificaciones complicadas. Sin embargo, lo último en técnicas de ciencia de datos como el aprendizaje profundo produce algoritmos que son más dinámicos e intrincados que los modelos estudiados aquí. Los expertos en modelos profesionales en mis estudios de caso hicieron todo lo posible para comprender la mecánica del modelo, pero solo unos pocos sintieron que tenían una comprensión exhaustiva del modelo en cuestión. Los modelos que estudié eran cajas negras para la mayoría de los profesionales de modelos que trabajaban con ellos. A pesar de esta falta de transparencia, los modelos se consideraron lo suficientemente creíbles como para informar la política. En algunos, los profesionales de modelos suspenden par

El Reconocimiento Facial está por todos sitios

Interesante artículo sobreel funcionamiento del reconocimiento facial,usos y enfoques legales https://www.nytimes.com/wirecutter/blog/how-facial-recognition-works/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Interior usará el reconocimiento facial en espectáculos para detectar personas con causas pendientes

El  Ministerio del Interior  quiere una solución basada en  reconocimiento facial para ser instalada en grandes espectáculos deportivos o culturales  -partidos de fútbol, conciertos...- que permita detectar personas con causas pendientes con la Justicia. "Se prevé que la solución innovadora pueda basarse, de manera general, en un  sistema tecnológico innovador e inteligente  formado por los siguientes componentes: Sistema de reconocimiento de matrículas (...), sistema de detección de teléfonos móviles, (...) y un sistema de reconocimiento de personas (por ejemplo, sistema de  reconocimiento facial ), a ser instalado en el propio punto de control de acceso en la entrada al evento. Su propósito es proporcionar a los agentes que controlan los accesos al evento alertas para detener a personas con asuntos pendientes con la justicia", desglosa el convenio. https://www.vozpopuli.com/economia-y-finanzas/reconocimiento-facial-causas-pendientes_0_1375363234.html Editado por Aniceto Pér

Primer uso de Deepfakes en una campaña electoral india

El 7 de febrero, un día antes de las elecciones a la Asamblea Legislativa en Delhi, dos videos del presidente del Partido Bharatiya Janata (BJP) Manoj Tiwari criticando al actual gobierno de Arvind Kejriwal en Delhi se volvieron virales en WhatsApp. Mientras que un video tenía a Tiwari hablando en inglés, el otro era él hablando en el dialecto hindi de Haryanvi. “[Kejriwal] nos engañó sobre la base de promesas. Pero ahora Delhi tiene la oportunidad de cambiarlo todo. Presione el botón de loto el 8 de febrero para formar el gobierno liderado por Modi ”, dijo. Uno puede pensar que este monólogo de 44 segundos podría ser parte del alcance político estándar, pero hay una cosa que no es estándar: estos videos no eran reales. https://www.vice.com/en_in/article/jgedjb/the-first-use-of-deepfakes-in-indian-election-by-bjp Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son i

La Ética de la IA en la Salud

Este artículo presenta una revisión de mapeo de la literatura sobre la ética de la inteligencia artificial (IA) en la atención médica. El objetivo de esta revisión es resumir los debates actuales e identificar preguntas abiertas para futuras investigaciones. Se realizaron búsquedas en cinco bases de datos bibliográficas para respaldar la siguiente pregunta de investigación: ¿cómo se pueden clasificar los principales riesgos éticos presentados por AI-salud, y qué problemas deben considerar los encargados de formular políticas, los reguladores y los desarrolladores para ser éticamente conscientes? Se llevaron a cabo una serie de etapas de detección, por ejemplo, la eliminación de artículos que se centraron en la salud digital en general (por ejemplo, intercambio de datos, acceso a datos, privacidad de datos, vigilancia / empujones, consentimiento, propiedad de los datos de salud, evidencia de eficacia). total de 156 artículos que se incluyeron en la revisión. Encontramos que los problema

El Consejo de Europa comienza a trabajar en un tratado de IA legalmente vinculante

El Consejo de Europa quiere empezar a poner en marcha el marco legal para que los países miembros luego creen su legislación. Hay cierto acuerdo, pero no consenso. Alemania quiere una protección fuerte. Tras la reciente publicación del Libro Blanco de la IA en la UE. Alemania ha indicado que el esquema de aplicaciones de alto riesgo y el resto es pobre. Hay un clamor generalizado de evitar que la regulación quede aguada. Estamos en el principio y lo que hagamos durará décadas. https://www.globalgovernmentforum.com/council-of-europe-starts-work-on-legally-binding-ai-treaty/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Aletheia

Hrramienta de creación y alquilar de personajes sintéticos. https://alethea.ai/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Overdub

Herramienta de creación de voz fake https://www.descript.com/overdub?lyrebird=true Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Por qué los hechos no cambian nuestras mentes

El economista J.K. Galbraith escribió una vez: "Ante la elección de cambiar de opinión y demostrar que no hay necesidad de hacerlo, casi todos se ocupan de la prueba". Leo Tolstoi fue aún más audaz: “Los temas más difíciles se pueden explicar al hombre más ingenuo si aún no se ha dado cuenta de ellos; pero lo más simple no puede dejarse claro al hombre más inteligente si está firmemente convencido de que ya sabe, sin ninguna duda, lo que se le presenta ". ¿Que está pasando aqui? ¿Por qué los hechos no cambian de opinión? ¿Y por qué alguien continuaría creyendo una idea falsa o inexacta de todos modos? ¿Cómo nos sirven esos comportamientos? La lógica de las falsas creencias Los humanos necesitan una visión razonablemente precisa del mundo para poder sobrevivir. Si su modelo de realidad es muy diferente del mundo real, entonces lucha para tomar acciones efectivas cada día. Sin embargo, la verdad y la precisión no son las únicas cosas que le importan a la mente humana. Los

La Historia Médica importa en la Era del Big Data

O también los científicos de datos no saben de donde vienen. Hace unos años, habló con un experto en aprendizaje automático que estaba escribiendo un algoritmo para el proveedor de electricidad de la ciudad de Nueva York para predecir dónde podrían producirse incendios en la red eléctrica subterránea y provocar una explosión de tapas de alcantarillas. Para probar y optimizar el algoritmo, el experto le proporcionó varios conjuntos de datos complejos y ampliamente disponibles, incluido el PIDD (un dataset médico). https://nihrecord.nih.gov/2020/07/24/medical-history-matters-era-big-data Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

¿Este título lo escribió una persona o una máquina?

GPT-3, creado por el laboratorio de investigación OpenAI, está provocando escalofríos en Silicon Valley. La compañía lanzó el servicio en versión beta el mes pasado y ha ampliado gradualmente el acceso. La semana pasada, el servicio se volvió viral entre los empresarios e inversores, que con entusiasmo se dirigieron a Twitter para compartir y discutir los resultados de la producción de GPT-3 para generar memes, poemas, tweets y tablaturas de guitarra. El momento viral del software es un experimento de lo que sucede cuando la nueva investigación de inteligencia artificial se empaqueta y se pone en manos de personas con conocimientos de tecnología pero no expertos en inteligencia artificial. El sistema de OpenAI ha sido probado y agotado en formas que no esperaba. Los resultados muestran la utilidad potencial de la tecnología, pero también sus limitaciones, y cómo puede llevar a las personas por mal camino. "No tiene ningún modelo interno del mundo, ni ningún otro mundo, por lo que

Perspectivas sobre la ética de la IA

Ya sea que lo reconozcamos como tal o no, estamos en medio de una invasión de IA. los Las máquinas están en todas partes y hacen prácticamente todo. Como estos diversos dispositivos y sistemas llegar a ocupar posiciones influyentes en la cultura contemporánea, posiciones donde no están necesariamente meras herramientas o instrumentos de acción humana, sino una especie de entidad social en sí mismos correcto: tendremos que hacernos algunas preguntas bastante interesantes pero difíciles: ¿a qué punto podría una IA, un algoritmo u otro sistema autónomo ser responsable de decisiones que toma o las acciones que inicia? ¿Cuándo, si alguna vez, tendría sentido decir: "Es el culpa de la computadora "? Por el contrario, ¿cuándo podría un artefacto inteligente u otro socialmente interactivo Mecanismo se debe algún nivel de posición social o respeto? Cuando, en otras palabras, no sería Ya no se considerará una tontería preguntar sobre el estado de los artefactos y hacer la pregunta: &qu

Lenguaje (Tecnología) es poder: una encuesta crítica sobre "sesgos" en NLP

Examinamos 146 artículos que analizan el "sesgo" en los sistemas de NLPy encontramos que sus motivaciones son a menudo vagas, inconsistentes y carentes de razonamiento normativo, a pesar de que el análisis del "sesgo" es un proceso inherentemente normativo. Además, encontramos que las técnicas cuantitativas propuestas por estos documentos para medir o mitigar el "sesgo" no se ajustan a sus motivaciones y no se relacionan con la literatura relevante fuera de la NLP. Con base en estos hallazgos, describimos los comienzos de un camino hacia adelante al proponer tres recomendaciones que deberían guiar el trabajo analizando el "sesgo" en los sistemas de NLP. Estas recomendaciones se basan en un mayor reconocimiento de las relaciones entre el lenguaje y las jerarquías sociales, alentando a los investigadores y profesionales a articular sus conceptualizaciones de "sesgo", es decir, qué tipos de comportamientos del sistema son perjudiciales, de

Los cinco principales problemas de privacidad de datos que hay que deben conocer las empresas

Considere cómo y cuándo se pueden anonimizar los datos Lo que se necesita en una política de privacidad conforme Cómo otorgar un derecho al olvido Qué procesos y salvaguardas deben implementarse para manejar adecuadamente los datos personales https://insidebigdata.com/2020/07/23/top-five-data-privacy-issues-that-artificial-intelligence-and-machine-learning-startups-need-to-know/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Incluso los mejores modelos de IA no son rivales para el coronavirus

El mercado de valores parece extrañamente indiferente a Covid-19 en estos días, pero eso no era cierto en marzo, ya que la magnitud y la amplitud de la crisis golpearon a casa. Según una medida, fue el mes más volátil en la historia del mercado de valores; el 16 de marzo, el promedio de Dow Jones cayó casi un 13 por ciento, su mayor descenso en un día desde 1987. Para algunos, el episodio inductor de vértigo también expuso una debilidad de las empresas comerciales cuantitativas (o cuantitativas), que se basan en modelos matemáticos, incluida la inteligencia artificial, para tomar decisiones comerciales. A algunas empresas cuantiosas prominentes les fue particularmente mal en marzo. A mediados de mes, algunos fondos de Bridgewater Associates habían caído un 21 por ciento durante el año hasta ese momento, según un comunicado publicado por el copresidente de la compañía, Ray Dalio. Vallance, un fondo cuantitativo administrado por DE Shaw, supuestamente perdió un 9 por ciento hasta el 24 d

Governando la IA en la banca

La naturaleza de los riesgos involucrados en el uso de IA por parte de los bancos no difiere materialmente de los que enfrentan otras industrias. Son los resultados los que difieren en caso de que se materialicen los riesgos: el daño financiero podría ser causado a los consumidores, a las propias instituciones financieras o incluso a la estabilidad del sistema financiero global. Nuestra revisión revela que los riesgos importantes incluyen sesgo en los datos que se envían a los sistemas de IA. Esto podría dar lugar a decisiones que perjudiquen injustamente a individuos o grupos de personas (por ejemplo, a través de medidas discriminatorias préstamo). El riesgo de "caja negra" surge cuando los pasos que toman los algoritmos no se pueden rastrear y las decisiones que toman no se pueden explicar. Excluir a los humanos de los procesos que involucran IA debilita su monitoreo y podría amenazar la integridad de los modelos (consulte la tabla para obtener una lista completa de los rie

Los principios por sí solos no pueden garantizar una IA ética

La ética de la IA se ha abordado desde un ángulo de principios desde los albores de la práctica, inspirándose en los 4 principios éticos básicos del campo de la ética médica. Sin embargo, este artículo aboga por cómo la ética de la inteligencia artificial no puede abordarse de la misma manera que la profesión de ética médica. El documento basa este argumento en 4 aspectos diferentes del campo de la ética médica de los que carece su contraparte de IA, pasando de la desalineación de los valores en el campo, a la falta de antecedentes establecidos para recurrir, a la responsabilidad y más. Luego, el documento concluye ofreciendo algunas formas de avanzar en el campo de Ética de la IA, enfatizando cómo la ética es un proceso y no un destino. Traducir los elevados principios en convenciones accionables ayudará a comprender los verdaderos desafíos que enfrenta la ética de la inteligencia artificial, en lugar de tratarla como algo que debe "resolverse". https://papers.ssrn.com/sol3/

EN AMBIENTE DE TURBULENCIA ECONÓMICA, NO APUESTES EN LA INTELIGENCIA ARTIFICIAL PARA SALVARTE

¿Cuáles son los desafíos para la IA en áreas más complejas como contabilidad, legal, ingeniería y atención médica? Eso proporcionaría información valiosa para empresas, nuevas empresas de inteligencia artificial, universidades y formuladores de políticas, especialmente porque las llamadas historias de éxito en realidad son ejemplos brillantes de las limitaciones de la inteligencia artificial en este momento. El informe de Stanford cita vehículos autónomos, donde el éxito se ha quedado rezagado detrás del bombo. Permitir que los vehículos interpreten y reaccionen ante los innumerables objetos que los vehículos tripulados encuentran en las carreteras y autopistas y en los estacionamientos, y en todo tipo de clima, desde el sol deslumbrante hasta la nieve que cae, es mucho más complicado que identificar patrones en el comercio electrónico o buscar noticias. Los vehículos autónomos son perfectos en el laboratorio, defectuosos en carreteras reales. Lo mismo sucedió con IBM Watson, que una v

Libro Blanco de la IE en EU, versión actualizada con las contribuciones

Preocupaciones principales La abrumadora mayoría de los participantes (95%) respondió a la sección sobre la regulación opciones para AI. Sus principales preocupaciones estaban relacionadas con la posibilidad de violación de AI derechos fundamentales y el uso de IA que pueden conducir a resultados discriminatorios respectivamente, el 90% y el 87% de los encuestados consideran que estas preocupaciones son importantes o muy importantes. La posibilidad de que la IA ponga en peligro la seguridad o tome medidas que no se pueden explicar también considerado como (muy) importante por el 82% y el 78% de los encuestados, respectivamente. Preocupaciones por La posible falta de precisión de la IA (70%) y la falta de compensaciones después del daño causado por AI (68%) sigue. https://ec.europa.eu/digital-single-market/en/news/white-paper-artificial-intelligence-public-consultation-towards-european-approach-excellence Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artif

IA y línea de privacidad: IA como ayudante y como peligro

Cualquiera que haya visto una película de Terminator, o básicamente cualquier película apocalíptica, sabe que incluso la tecnología que se desarrolló solo por las razones más nobles puede ser armada o utilizada como algo que finalmente daña a la sociedad. Debido a la posibilidad de daño, ya se han aprobado muchas leyes que requieren que ciertas compañías sean transparentes sobre su uso de la IA. Por ejemplo, las compañías de servicios financieros están obligadas a revelar los principales factores que utilizan para determinar la solvencia de una persona y por qué toman una acción adversa en una decisión de préstamo. Resumen de los beneficios y peligros en el uso de la IA. https://readwrite.com/2020/07/20/ai-privacy-line-ai-as-a-helper-and-as-a-danger/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente

Lecciones prácticas sobre ética de la IA

Es un informe de Digital Catapult AI Ethics Commitee sobre el Machine Learning Garage Ethics Framework. La ética de la IA recibe mucha atención e interés de las comunidades de inicio y la industria en general. A pesar de este interés y una tendencia general al alza en las empresas que desean ser más conscientes y transparentes, ha habido una brecha entre la intención y la acción práctica. Machine Intelligence Garage, el programa emblemático de aceleración de IA de Digital Catapult, proporciona a la comunidad de innovación acceso a potencia computacional, junto con soporte comercial y de inversión. Al tiempo que apoya a las nuevas empresas en el crecimiento y desarrollo de sus soluciones, también es importante que tengan los recursos, el asesoramiento y la orientación para poder hacerlo de manera responsable y ética. En respuesta a la evidente necesidad de orientación, Digital Catapult ha creado una metodología aplicada y práctica para la ética del aprendizaje automático, diseñada para

El gran misterio de las apps de trazado del coronavirus

Tras múltiples desarrollos y despliegues de apps en UK, Francia, Irland y Alemania, con mayor o menor penetración, los políticox aseguran que funciona, que va genial, pero no se sabe cómo está funcionando. Todo eso dejando aparte las interrupciones y cambios debido a demandas sobre violación de la privacidad. Además han surgido diversos problemas con las apps en Japón, Australia, Italia y Francia. https://www.bbc.com/news/technology-53485569 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Verificando la Hipótesis de la Revolución de la Automatización

Recientemente, muchos han pronosticado una revolución de automatización inminente y grandes pérdidas de empleos resultantes. Otros han creado métricas para predecir nuevos patrones en la vulnerabilidad de la automatización del trabajo. Como contexto para tales afirmaciones, probamos la teoría básica, dos métricas de vulnerabilidad y 251 características de trabajo O * NET como predictores de 1505 informes de expertos con respecto a los niveles de automatización en 832 tipos de trabajo de EE. UU. De 1999 a 2019. Encontramos que las métricas de pago, empleo y vulnerabilidad son predictivas (R ^ 2 ~ 0.15), pero agregan poco a las principales 25 funciones de trabajo O * NET, que juntas predicen mucho mejor (R ^ 2 ~ 0.55). Estos mejores predictores parecen entendibles en términos de los tipos tradicionales de automatización, y no han cambiado durante nuestro período de tiempo. En cambio, parece que los trabajos han cambiado sus características para ser más adecuados para la automatización. P

Open Dialog on AI

Página en varios idiomas que explica qué es la IA, la ética en la IA y presenta formas de dialogar sobre esos problemas. Es fantástico. https://opendialogueonai.com/our-documents/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Robots sociales y empatía: los efectos nocivos de obtener siempre lo que queremos

Como estamos perdiendo nuestra capacidad de empatizar con los humanos debido a su complejidad, nos volveremos cada vez más hacia robots sociales que son adaptado a todos nuestros deseos de compañía. Esto solo acentuará aún más el declive de nuestro empatía por otros seres humanos y permitir que se asiente el asco moral, especialmente hacia individuos que consideramos diferentes de nosotros. Porque el asco subyace a la deshumanización, el asco moral  hacia nuestros semejantes nos llevará a deshumanizarlos, es decir, a renunciar al tratamiento de la manera respetuosa y empática que esperaríamos que uno tratara a un ser humano: ya que esto es algo que reservaremos para los robots sociales que no están en desacuerdo con nosotros o actúan de manera eso no nos conviene. Por lo tanto, el fallo fatal de los humanos habrá sido que son demasiado humanos,demasiado distintos para el mundo cada vez más egocéntrico y digital en el que vivimos ahora. https://montrealethics.ai/wp-content/uploads/2019/

Dando luz verde al ML: confidencialidad, integridad y disponibilidad de los sistemas de aprendizaje automático en la implementación

La seguridad y la ética son fundamentales para garantizar que se pueda confiar en un sistema de aprendizaje automático. En el aprendizaje automático de producción, generalmente hay una transferencia de quienes crean un modelo a quienes implementan el modelo. En este traspaso, los ingenieros responsables del despliegue del modelo a menudo no conocen los detalles del modelo y, por lo tanto, las vulnerabilidades potenciales asociadas con su uso, exposición o compromiso. Las técnicas como el robo de modelos, la inversión de modelos o el mal uso de modelos pueden no considerarse en la implementación de modelos, por lo que corresponde a los científicos de datos y a los ingenieros de aprendizaje automático comprender estos riesgos potenciales para que puedan comunicarlos a los ingenieros que implementan y alojan sus modelos. . Este es un problema abierto en la comunidad de aprendizaje automático y para ayudar a aliviar este problema, se deben desarrollar sistemas automatizados para validar la

Tres cuestiones (o más) a Stuart Russell

Entrevista a Stuart Russell. ¿Cómo debería un sistema de IA tomar decisiones en un escenario donde se requieren elecciones inmediatas? En cierto sentido, siempre se requieren elecciones inmediatas. Un robot (o un humano) siempre está haciendo algo, incluso si ese algo es no hacer nada. Supongo que la pregunta es abordar el problema de un robot que actúa sin la oportunidad de pedir permiso u obtener más información sobre las preferencias humanas. En tales casos, existe una compensación entre el costo potencial de la inacción y el costo potencial de hacer lo incorrecto. Supongamos que el robot está solo en casa, la casa está a punto de verse envuelta en llamas por un incendio forestal y el robot puede salvar los álbumes de fotos familiares o el jerbo de la mascota, pero no ambos. No tiene idea de cuál tiene mayor valor para la familia. Bueno, ¿qué haría alguien? ¿Cómo podemos garantizar que las preferencias se actualicen a medida que la sociedad cambia con el tiempo? ¿La IA cambiará las

UNESCO Consulta pública: Ética de la Inteligencia Artificial

Invitación a participar en esta consulta pública online https://en.unesco.org/news/unesco-launches-worldwide-online-public-consultation-ethics-artificial-intelligence Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Desafiando la verdad y la confianza: un inventario global de la manipulación organizada de las redes sociales

Informe sobre ciber desinformación 2018: inventario de organizaciones de desinformación, forma de operar. https://comprop.oii.ox.ac.uk/research/cybertroops2018/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Cuando la mejor IA no es necesariamente la mejor IA

El artículo presenta el modelo de Susan Athey, para consideración de las organizaciones al usar la IA. Plantea cuatro escenarios: Si un sistema de IA funciona perfectamente todo el tiempo, puede reemplazar al humano. Pero hay inconvenientes. Además de tomar el trabajo de una persona, la IA de reemplazo tiene que estar extremadamente bien entrenada, lo que puede implicar una inversión prohibitivamente costosa en datos de capacitación.  Cuando la IA es imperfecta o "poco confiable", los humanos juegan un papel clave en la captura y corrección de los errores de la IA, compensando parcialmente las imperfecciones de la IA con un mayor esfuerzo. Es muy probable que este escenario produzca resultados óptimos cuando la IA alcanza el punto óptimo donde toma malas decisiones con la frecuencia suficiente para mantener a los compañeros de trabajo humanos alerta. Con la IA de aumento, los empleados conservan el poder de decisión mientras que una IA de alta calidad aumenta su esfuerzo sin