Entradas

Mostrando entradas de septiembre, 2020

Identidad digital y confianza: la Comisión lanza una consulta pública sobre el Reglamento eIDAS

 La Comisión ha lanzado una consulta pública sobre la revisión de las normas sobre identificación electrónica y servicios de confianza para transacciones electrónicas en el mercado interior, el Reglamento eIDAS. https://ec.europa.eu/digital-single-market/en/news/digital-identity-and-trust-commission-launches-public-consultation-eidas-regulation Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Ética de los vehículos automatizados y conectados

Este informe presenta el trabajo de un europeo Grupo de expertos de la Comisión establecido para asesorar sobre cuestiones éticas específicas planteadas por la movilidad sin conductor para el transporte por carretera. El informe tiene como objetivo promover un transición responsable a conectado y vehículos automatizados (CAV) apoyando partes interesadas en la inclusión sistemática de consideraciones éticas en el desarrollo y regulación de CAV. En los últimos años, las cuestiones éticas asociado con conectado y automatizado vehículos (CAV) han sido objeto de escrutinio académico y público. Una común narrativa presenta el desarrollo de CAV como algo que inevitablemente beneficiar a la sociedad reduciendo el número de muertes en carretera y emisiones nocivas de transporte y mejorando la accesibilidad de los servicios de movilidad. En contraste, este informe aplica una Investigación Responsable y Enfoque de innovación (RRI) para CAV. Esta enfoque reconoce el potencial de CAV tecnología par

PRÓXIMA FASE DEL PROCESO EUROPEO DE REGULACIÓN DE LA IA: ALLAI DA RETROALIMENTACIÓN A LA COMISIÓN

 En su Libro Blanco sobre Inteligencia Artificial, Europa adoptó una postura clara sobre la IA; Fomentar la adopción de tecnologías de inteligencia artificial, respaldada por lo que llama "un ecosistema de excelencia", al tiempo que garantiza su cumplimiento de las normas éticas europeas, los requisitos legales y los valores sociales, "un ecosistema de confianza". La Evaluación de Impacto Inicial de una “Propuesta de acto jurídico del Parlamento Europeo y del Consejo que establece los requisitos para la Inteligencia Artificial” presenta ahora una serie de objetivos y opciones políticas. ALLAI brindó comentarios sobre estos objetivos y opciones de políticas. En primer lugar, expresamos nuestro apoyo a los esfuerzos de la Comisión Europea para establecer un marco regulatorio apropiado para la IA. Al establecer un marco de este tipo, uno debe mirar las leyes y regulaciones existentes y determinar si son "aptas para el propósito" de un mundo con IA, así como c

El mantra "Seguir la ciencia" es engañoso cuando se trata de decisiones políticas, dice el director del Instituto de Ética en AI de Oxford

 Fantástica entrevista al profesor John Tasioulas, el recién nombrado director inaugural del Instituto de Ética en Inteligencia Artificial de la Universidad de Oxford. Hemos estado hablando de ética médica durante muchos años, un debate que aún continúa. Ahora, hay una discusión sobre los principales desafíos éticos que plantea la IA. Algunos argumentan que los sistemas de reconocimiento facial y de perfiles de votantes representan una amenaza para la democracia, y mucho menos para los drones armados que enfrentan múltiples problemas éticos. Otros dicen que demonizar la tecnología y abrazar las teorías de la conspiración puede ser una amenaza mayor. ¿Cuáles son sus opiniones? R: Por supuesto, tengo mis propias opiniones sobre temas como este, algunas menos seguras que otras. Pero hay dos cosas generales que me gustaría enfatizar para ir más allá del optimismo ingenuo y el miedo irracional a la IA. La primera es que la preocupación no es la IA en sí misma, que es esencialmente una tecno

Publicación del primer informe de progreso del Comité Ad hoc de Inteligencia Artificial (CAHAI)

 El 23 de septiembre de 2020, el Comité de Ministros aprobó el informe de avances del Comité Ad hoc de Inteligencia Artificial (CAHAI), en el que se detallan los trabajos realizados y los avances hacia el cumplimiento del mandato del comité desde su constitución el 11 de septiembre de 2019. El informe de situación establece una hoja de ruta clara para la acción hacia un instrumento jurídico del Consejo de Europa basado en los derechos humanos, el Estado de derecho y la democracia. Su clara relevancia también ha sido confirmada y reforzada por la reciente pandemia de COVID-19. Se espera que el estudio preliminar de viabilidad, que proporciona indicaciones sobre el marco legal sobre el diseño y el desarrollo de inteligencia artificial basado en los estándares del Consejo de Europa, sea examinado por la CAHAI en su próxima tercera reunión plenaria en diciembre de 2020. 2021 también estará dedicado a múltiples -consultas a las partes interesadas y la finalización de los elementos del marco

¿Es la bola de cristal de Palantir solo humo y espejuelos?

 Interesante investigación sobre la realidad detrás de Palantir y Peter Thiel. https://nymag.com/intelligencer/2020/09/inside-palantir-technologies-peter-thiel-alex-karp.html Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Ethics, Society and Technology Hub integra la ética en la enseñanza y la investigación

Ética junto con el estudio de ciencias. Stanford  Ética en el aula Reich ayudó a lanzar una clase llamada CS 182: Computación, ética y políticas públicas, co-impartida por Jeremy Weinstein, profesor de ciencias políticas, y Mehran Sahami, profesor de ciencias de la computación, que explora la intersección de tecnología, ética y política. "Es la única clase que conozco donde los estudiantes tienen que completar asignaciones técnicas, documentos de políticas y documentos de filosofía", dijo Reich. Ahora está explorando clases similares sobre temas como bioingeniería y ciencias climáticas. “Queremos llevar esta idea más allá de la informática”, dijo. https://news.stanford.edu/2020/09/17/ethics-society-technology-hub-embeds-ethics-teaching-research/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariame

El objetivo no debería ser una IA Confiable

Pensamiento de Mariarosaria Taddeo.  Uno de los principios que se incluyen con más frecuencia en las pautas éticas para la inteligencia artificial es la "IA confiable". Pero Taddeo dice que el término es un nombre inapropiado: La confianza es una forma de delegar una tarea y dejar de controlar o supervisar la forma en que se realiza la tarea. Eso no es lo que queremos de la IA. Técnicamente hablando, la IA no es una tecnología de rubes, puede ser atacada y manipulada, sin que el usuario lo sepa. Confiar y olvidarse de la IA es un enfoque peligroso. El uso de IA debe ir acompañado de formas de seguimiento y control del sistema. Más que una IA confiable, debemos desarrollar procesos para que la IA sea confiable. Taddeo cree que los Principios de la OCDE sobre Inteligencia Artificial son muy buenos en este sentido, ya que se refieren a la necesidad de un seguimiento continuo de los sistemas. Esto puede garantizar que los sistemas de IA continúen comportándose como se espera dura

Marco Europeo de aspectos éticos de artificial inteligencia, robótica y tecnologias relacionadas

 La UE puede convertirse en un creador de normas mundiales en el ámbito de los ética de la inteligencia (IA). Acción legislativa común de la UE sobre aspectos éticos de La IA podría impulsar el mercado interior y establecer una importante estrategia ventaja. Si bien numerosos actores públicos y privados de todo el mundo han elaborado directrices éticas en este campo, actualmente no existe marco legal integral. La UE puede beneficiarse de la ausencia de un competir con el modelo de gobernanza global y obtener todas las ventajas de ser el primero en actuar. Sobre la base de las competencias económicas y reglamentarias de la UE, la UE común La acción legislativa tiene un gran potencial para proporcionar a la industria europea un ventaja competitiva. Además, la acción de la UE puede facilitar la adopción de normas a nivel mundial y garantizar que el desarrollo, la adopción y la difusión de la IA se basa en los valores, principios y derechos protegidos en la UE. Aquellos los beneficios no p

El Modelo Fiduciario de Privacidad

 Este ensayo resume y reafirma la teoría de los fiduciarios de la información y el modelo fiduciario de privacidad. En la era digital, las personas son cada vez más dependientes y vulnerables a las empresas digitales que recopilan datos de ellas. Las empresas utilizan estos datos para predecir y controlar lo que hacen las personas y para vender el acceso de terceros a ellos. Debido a la vulnerabilidad y dependencia creadas por el capitalismo de la información, la ley debería considerar a las empresas digitales que recopilan y utilizan datos del usuario final como fiduciarios de la información. El modelo fiduciario es parte de una tendencia más amplia en la ley de privacidad que ve la privacidad en términos de relaciones de lealtad y confianza. Los fiduciarios de información tienen tres tipos básicos de deberes hacia sus usuarios finales: un deber de confidencialidad, un deber de cuidado y un deber de lealtad. Estos deberes fiduciarios también deben “correr con los datos”: las empresas

Singapur en primer lugar mundial en verificación facial

 La verificación biométrica dará a los habitantes de Singapur un acceso seguro a los servicios privados y gubernamentales. La agencia de tecnología del gobierno dice que será "fundamental" para la economía digital del país. Se ha probado con un banco y ahora se está implementando en todo el país. No solo identifica a una persona, sino que garantiza que esté realmente presente. "Tienes que asegurarte de que la persona esté realmente presente cuando se autentica, de que no estás mirando una fotografía o un video o una grabación repetida o una deepfake", dijo Andrew Bud, fundador y director ejecutivo de iProov, Reino Unido. empresa que proporciona la tecnología. La tecnología se integrará con el esquema de identidad digital del país SingPass y permitirá el acceso a los servicios gubernamentales. "Esta es la primera vez que se ha utilizado la verificación facial basada en la nube para asegurar la identidad de las personas que utilizan un esquema de identidad digita

Los usuarios informan problemas cuando se lanza la aplicación Covid-19 en Inglaterra y Gales

 El lanzamiento de la aplicación NHS Covid-19 en Inglaterra y Gales ha expuesto problemas con el programa, algunos de los cuales se conocían de antemano, y otros serán una sorpresa tanto para el gobierno como para los usuarios. Aunque hubo cientos de miles de descargas de la aplicación en las primeras horas en iPhones desde App Store y Android desde Google Play Store, el simple hecho de acceder a ella causó un problema para muchos. Algunos usuarios de Android informaron haber descargado accidentalmente la versión de prueba que estaba disponible en Newham, el este de Londres y la Isla de Wight. Eso luego llevó a una serie de reseñas de una estrella en Google Play Store, lo que le dio a la aplicación una calificación promedio de solo 1.5 estrellas. https://www.theguardian.com/world/2020/sep/24/users-report-issues-as-covid-19-app-launches-in-england-and-wales Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@foro

¿puede sobrevivir la democracia en un mundo digital?

Marietje Schaake A medida que ha visto evolucionar la democracia en la era de la comunicación global instantánea y las redes sociales hiperconectadas, se ha preocupado por la resistencia de la democracia a medida que la tecnología interrumpe el status quo. Si bien las tecnologías, y las empresas a menudo no reguladas que las crearon, afirman ser bien intencionadas, ella dice que la democracia está siendo atacada por propagandistas y malos actores que utilizan estas herramientas transformadoras de formas preocupantes. Los modelos de negocio basados en la vigilancia y la publicidad nunca fueron diseñados pensando en preservar la democracia. Ahora nos encontramos en un momento decisivo para el futuro del gobierno electivo, dice. Estados Unidos y otras naciones democráticas pueden exponer a los entrometidos y sus técnicas o sucumbir a sus enfoques. Las soluciones, dice, comienzan en las bases y con las empresas de tecnología. Necesitamos una supervisión e investigación independientes y en

¿Qué significa realmente la privacidad bajo el capitalismo de vigilancia?

 Nos están mirando. Saben que estoy escribiendo estas palabras. Saben que los está leyendo. Los gobiernos y cientos de corporaciones nos están espiando a usted y a mí, ya todos los que conocemos. Cada minuto de cada dia. Ellos rastrean y registran todo lo que pueden: nuestra ubicación, nuestras comunicaciones, nuestras búsquedas en Internet, nuestra información biométrica, nuestras relaciones sociales, nuestras compras y mucho más. Quieren saber quiénes somos, qué pensamos, dónde nos duele. Quieren predecir e influir en nuestro comportamiento. Tienen demasiado poder. Su poder proviene de nosotros, de usted, de sus datos. Es hora de recuperar el control. Reclamar la privacidad es la única forma en que podemos recuperar el control de nuestras vidas y nuestras sociedades. Internet se financia principalmente mediante la recopilación, el análisis y el comercio de datos: la economía de los datos. Gran parte de esos datos son datos personales, datos sobre usted. El comercio de datos personale

Un marco socio-técnico para el rastreo digital de contactos

 En sus esfuerzos por abordar la crisis de COVID-19, los responsables de la toma de decisiones están considerando el desarrollo y uso de aplicaciones de teléfonos inteligentes para el rastreo de contactos. Aunque estas aplicaciones difieren en tecnología y métodos, existe una preocupación creciente por sus implicaciones para la privacidad y los derechos humanos. Aquí proponemos un marco para evaluar su idoneidad en términos de impacto en los usuarios, tecnología empleada y métodos de gobernanza. Ilustramos su uso con tres aplicaciones, y con las directrices del European Data Protection Board (EDPB), destacando sus limitaciones. https://www.sciencedirect.com/science/article/pii/S2590123020300694 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

No estamos preparados para la IA, dice la ganadora del Squirrel AI Award de 1 millón de dólares

 Finalmente, ¿por qué la IA aún no ha tenido mucho impacto en covid-19? La IA no va a resolver todos los grandes problemas que tenemos. Pero ha habido algunos pequeños ejemplos. Cuando todos los servicios clínicos no esenciales se redujeron a principios de este año, usamos una herramienta de inteligencia artificial para identificar qué pacientes de oncología en Boston aún deberían ir y hacerse su mamografía anual. Pero la razón principal por la que la IA no ha sido más útil no es la falta de tecnología, sino la falta de datos. Ya sabes, estoy en el equipo de liderazgo de la J-Clinic del MIT, un centro de inteligencia artificial en el cuidado de la salud, y muchos de nosotros en abril dijimos: Realmente queremos hacer algo, ¿dónde podemos obtener los datos? Pero no pudimos conseguirlo. Fue imposible. Incluso ahora, seis meses después, no es obvio cómo obtenemos los datos. La segunda razón es que no estábamos listos. Incluso en circunstancias normales, cuando las personas no están bajo e

El sesgo geográfico en las herramientas de inteligencia artificial médica

 Hace solo unas décadas, los científicos no pensaban mucho en la diversidad al estudiar nuevos medicamentos. La mayoría de los ensayos clínicos incluyeron principalmente a hombres blancos que vivían cerca de institutos de investigación urbanos, con el supuesto de que cualquier hallazgo se aplicaría por igual al resto del país. Investigaciones posteriores demostraron que esa suposición era falsa; ejemplos acumulados de medicamentos que luego se determinó que eran menos efectivos o que causaban más efectos secundarios en poblaciones que estaban subrepresentadas en el estudio inicial. Para abordar estas desigualdades, los requisitos federales para la participación en la investigación médica se ampliaron en la década de 1990, y los ensayos clínicos ahora intentan inscribir a poblaciones diversas desde el inicio del estudio. Pero ahora corremos el riesgo de repetir estos mismos errores a medida que desarrollamos nuevas tecnologías, como la IA. Investigadores de la Universidad de Stanford ex

Ethics, Society and Technology Hub integra la ética en la enseñanza y la investigación

 "Stanford es el hogar de destacados especialistas en ética y científicos sociales, pero no se han integrado bien en las formas en que enseñamos o investigamos sobre la tecnología", dijo Debra Satz, decana de la escuela de Vernon R. y Lysbeth Warren Anderson. de Humanidades y Ciencias (H&S). "El EST Hub aportará sus conocimientos a la conversación con científicos e ingenieros sobre cuestiones tales como cómo podríamos considerar las decisiones que tomamos con respecto a las tecnologías que tienen el potencial de consecuencias sociales generalizadas". https://news.stanford.edu/2020/09/17/ethics-society-technology-hub-embeds-ethics-teaching-research/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Covid Reino Unido: científicos en desacuerdo sobre el enfoque de nuevas restricciones

 Los grupos rivales de científicos están en desacuerdo sobre cómo el gobierno debe manejar la pandemia de Covid, y uno advierte que solo deben protegerse los mayores de 65 años y los vulnerables, mientras que el otro respalda las medidas a nivel nacional. El consejo contradictorio al gobierno del Reino Unido y a los directores médicos (CMO) se produjo en dos cartas abiertas emitidas el lunes por los campos rivales. Se produjo cuando el profesor Chris Whitty, director de marketing de Inglaterra, y el asesor científico principal, Sir Patrick Vallance, hicieron una transmisión de televisión nacional para establecer el riesgo de que el virus se propague exponencialmente, con el correspondiente aumento de casos y muertes, si el comportamiento público no cambia. Treinta y dos científicos firmaron una carta advirtiendo que el gobierno va por el camino equivocado y debe reconsiderar su política para suprimir el virus, adoptando un enfoque específico. https://www.theguardian.com/science/2020/se

El Consejo de Ética Alemán desaconseja actualmente los certificados de inmunidad Covid-19

 La introducción de certificados de inmunidad controlados por el estado ha sido objeto de controversias durante varios meses. Recientemente, el Ministro Federal de Salud solicitó al Consejo de Ética Alemán que discuta los requisitos éticos y las implicaciones de los certificados de inmunidad. El Consejo Alemán de Ética rechaza por unanimidad la introducción de tales certificados en la actualidad. En el caso de que la inmunidad sea verificable con suficiente fiabilidad en el futuro, existen diferentes opiniones en el Consejo sobre si debería recomendarse la introducción de certificados de inmunidad y, en caso afirmativo, en qué condiciones. https://www.ethikrat.org/en/press-releases/2020/german-ethics-council-currently-advises-against-covid-19-immunity-certificates/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan n

Dara Justice and COVID-19: Global Perspectives

 Es un informe de qué ha ocurrido durante los seis primeros meses de pandemia en relación a la regulación, desinformación, apps, gobernanza y emergencia digital https://ia801905.us.archive.org/23/items/data-justice-and-covid-19/Data_Justice_and_COVID-19.pdf Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

El borrador de la UE para la regulación de las criptomonedas: conseguir blockchain en alguna parte (una verdad incómoda)

 El desarrollo de la tecnología financiera (FinTech) ha dado lugar a avances significativos en muchas áreas. Algunas de las tecnologías utilizadas dentro de la industria de servicios financieros incluyen la automatización de procesos robóticos (RPA) y blockchain. Blockchain es otra tecnología financiera que comienza a utilizarse en la industria. De todas las tecnologías “fintech”, blockchain se desarrolló con fines financieros y se vinculó directamente a instituciones financieras. Sin embargo, la cuestión es que la comunidad de blockchain todavía cree que puede hacer todo lo que quiera, es decir: puede cambiar el mundo al proporcionar los llamados nuevos modelos de negocio fantásticos y soluciones de tecnología sostenible a través de blockchain. Pero la mayoría de la gente no lo entiende y se preocupa aún menos. Blockchain es muy complicado. Soy abogado y me tomó un tiempo comprender su concepto y las oportunidades que ofrece. No digo que sea la persona más brillante en lo que respecta

Sobre la privacidad y la equidad algorítmica del aprendizaje automático y la inteligencia artificial

 Cuando grandes cantidades de datos de usuario recopilados a escala industrial continúan generando preocupaciones constantes sobre la privacidad, la necesidad de abordar seriamente los problemas de privacidad y protección de datos con respecto al procesamiento de datos es más importante que nunca. Los datos se introducen cada vez más en modelos de aprendizaje automático (es decir, "inteligencia artificial" que facilita la toma de decisiones automática), lo que puede generar muchas preocupaciones, incluso si las decisiones tomadas por dichos modelos son justas para los usuarios. De hecho, la investigación no solo indica que los modelos de aprendizaje automático pueden filtrar los datos de usuario aprendidos, incluidos los datos personales. Las preocupaciones sobre los resultados sesgados y la equidad (cómo veo la "equidad" se discute a continuación) también son cada vez más evidentes y, sin duda, contribuyen a las crecientes preocupaciones sobre los posibles riesgos

La oferta de desinformación pronto será infinita

 Renée DiResta presenta algunos casos de desiformación  y prevé que habrá mucha desinformación generada con inteligencia artificial y que será difícil saber qué es verdad y qué es falso. https://www.theatlantic.com/ideas/archive/2020/09/future-propaganda-will-be-computer-generated/616400/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Por qué los niños necesitan protección especial de la influencia de la IA

 Los algoritmos están moldeando cada vez más la vida de los niños, pero las nuevas barandillas podrían evitar que se lastimen. https://www.technologyreview.com/2020/09/17/1008549/kids-need-protection-from-ai/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

DE LA VIGILANCIA DE DATOS A LA DATAPULACIÓN. EL LADO OSCURO DE LAS TECNOLOGÍAS PERSUASIVAS DIRIGIDAS

 Los servicios en línea, dispositivos o servicios secretos recopilan constantemente datos y metadatos de sus usuarios. Esta recopilación de datos se utiliza principalmente para orientar a los usuarios, personalizar sus servicios o monitorearlos. Esta vigilancia de los datos, a veces denominada vigilancia de datos, es omnipresente y genera mucha atención [1]. Sin embargo, hoy en día, los datos y las tecnologías no solo se usan para monitorear a las personas, también se usan para motivar, influir o dar forma a sus opiniones o decisiones en línea. La mejor comprensión de los comportamientos de los usuarios, combinada con la capacidad de crear perfiles psicológicos precisos, crea oportunidades para desarrollar técnicas para influir en los usuarios en línea, dando forma a su comportamiento. Estas tecnologías pueden fomentar normas positivas, como la lucha contra la propaganda terrorista o racista en línea, o pueden utilizarse para motivar a los usuarios a conducir de forma más segura o econ

Nuevas recomendaciones para una transición segura y ética hacia la movilidad sin conductor

 Mariya Gabriel, comisionada de Innovación, Investigación, Cultura, Educación y Juventud, dijo: El progreso tecnológico por sí solo no será suficiente para que los vehículos conectados y automatizados (CAV) alcancen su potencial. Desde el inicio hasta el uso, la integración oportuna y sistemática de los principios éticos será esencial para alinear esta tecnología emergente con nuestros valores y necesidades sociales. Doy la bienvenida al informe del Grupo de Expertos independiente y aliento a los investigadores, legisladores, fabricantes e implementadores a hacer un seguimiento de sus recomendaciones prácticas para garantizar la transición segura, ética y responsable hacia la movilidad conectada y automatizada ". https://ec.europa.eu/info/news/new-recommendations-for-a-safe-and-ethical-transition-towards-driverless-mobility-2020-sep-18_en Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). L

Las tensiones entre la IA explicable y las buenas políticas públicas

A menudo también existe un déficit de confianza, particularmente en la justicia penal y la policía, o en las políticas de bienestar que llevan el poder del estado a la vida familiar de las personas. Incluso muchos ciudadanos respetuosos de la ley en algunas comunidades no confían en que la policía y el poder judicial se preocupen por sus mejores intereses. Es ingenuo creer que la transparencia aplicada algorítmicamente sobre los objetivos resolverá los conflictos políticos en situaciones como estas. El primer paso, antes de implementar máquinas para tomar decisiones, no es insistir en la explicabilidad algorítmica y la transparencia, sino restaurar la confiabilidad de las propias instituciones. La toma de decisiones algorítmica a veces puede ayudar a un buen gobierno, pero nunca puede compensar su ausencia.  https://www.brookings.edu/techstream/the-tensions-between-explainable-ai-and-good-public-policy/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artifi

Max Hill dice que el aumento de las pruebas de audio y video manipuladas representará un riesgo para la justicia en futuros casos legales

Los fiscales pronto tendrán que descifrar si las pruebas son reales o "profundamente falsas", advirtió el Director del Ministerio Público. En una visión escalofriante del futuro, Max Hill QC dijo que los abogados pueden tener que considerar rutinariamente si las grabaciones de voz y las imágenes de video han sido falsificadas o manipuladas para implicar o exonerar a los infractores.  https://www.dailymail.co.uk/news/article-8745283/Max-Hill-says-rise-doctored-video-audio-evidence-pose-risk-justice.html Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Derecho para Informáticos y otras personas

 Este libro tiene como objetivo presentar el derecho a los informáticos. Por esa razón, sirve como un libro de texto, proporcionando una descripción general de la práctica y el estudio del derecho para una audiencia específica. Enseñar derecho a los informáticos siempre será un intento, un ensayo, de salvar las brechas disciplinarias entre dos prácticas que cada una tiene sus propias exigencias y limitaciones metodológicas. Este libro explora el término medio, con el objetivo de presentar una imagen razonablemente coherente del vocabulario y la gramática del derecho positivo moderno (el ley aplicable en una jurisdicción específica). https://fdslive.oup.com/www.oup.com/academic/pdf/openaccess/9780198860884.pdf Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Riesgos legales derivados de la integración de la inteligencia artificial al derecho tributario

 Muestra los problemas de cualquier aplicación de la IA. http://kluwertaxblog.com/2020/09/04/legal-risks-stemming-from-the-integration-of-artificial-intelligence-ai-to-tax-law/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

UK Data Ethics Framework

 Orientación para las organizaciones del sector público sobre cómo utilizar los datos de manera adecuada y responsable al planificar, implementar y evaluar una nueva política o servicio. https://www.gov.uk/government/publications/data-ethics-framework Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Facebook no es un país: cómo interpretar la ley de derechos humanos para las empresas de redes sociales

 Facebook, Inc. está administrando silenciosamente el sistema de censura más grande que el mundo haya conocido, gobernando más comunicación humana que cualquier gobierno, o lo haya hecho jamás [1]: miles de millones de publicaciones al día. [2] Otras empresas de redes sociales [3] también regulan el habla a una escala asombrosa, en plataformas [4] como YouTube. [5] No es solo la escala lo que hace que esta forma de regulación sea nueva. En los primeros días de las plataformas, casi todas las publicaciones eran privadas: los usuarios compartían noticias y pensamientos personales, a menudo con personas que conocían sin conexión. Ahora tiene lugar un importante discurso público en las redes sociales, entre extraños. En muchos países, las plataformas en línea son indispensables para realizar campañas electorales, anunciar decisiones presidenciales, brindar servicios gubernamentales [6] o convencer a los ciudadanos de que aprueben los asesinatos en masa y la limpieza étnica [7]. https://www

Conductor de seguridad en accidente automovilístico autónomo Uber fatal en Arizona acusado de homicidio

Un conductor de Uber atropelló a un cliclista. Se probó que no atendía al volante https://uk.reuters.com/article/us-uber-selfdriving-idUKKBN2663FU   Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Un nuevo modelo que puede "abstraer" acciones ordinarias

 Utilizando deep learning y lógica simbólica, investigadores han podido detectar acciones extrayendo formas y comparándoas con una base de datos de acciones. Los resultados son interesantes, aunque tiende a subrayar cosas que no son importantes. https://news.mit.edu/2020/toward-machine-learning-that-can-reason-about-everyday-actions-0831 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Por qué la IA no sesgada no existe

 Una breve explicación de porqué la IA neutra es imposible y este artículo lo aplica a su fundación o empresa de salud para la mujer en la que es la mujer la que decide. Parece un artículo oportunista. https://medium.com/grace-health-insights/why-non-biased-ai-doesnt-exist-ed4fe90442fb Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

El futuro de la privacidad

 Podcast de entrevista a Carissa Véliz. Los ataques a la privacidad son ataques a la democracia https://philosophy247.org/podcasts/the-future-of-privacy/ Otro artículo sobre su próximo libro https://aeon.co/essays/privacy-matters-because-it-empowers-us-all Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Los empleados de Target serán retribuidos mediante un algoritmo

 La empresa asegura que se ha revisado bien, los empleados dicen que ahora cobran menos. https://www.vice.com/en_us/article/qj49jv/targets-delivery-app-workers-to-be-paid-by-a-blackbox-algorithm-nationwide Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Derechos Humanos e Inteligencia Artificial

La inteligencia artificial puede tener un impacto positivo en el ejercicio de determinados derechos, pero otros pueden verse menoscabados por su uso como: la libertad de expresión (incluyendo el derecho a comunicar o recibir información libremente), la privacidad, la prohibición de la discriminación, y el derecho a la tutela judicial efectiva. Las organizaciones internacionales dedicadas a la protección de los derechos humanos están actualmente reflexionando sobre estos riesgos y las posibles soluciones para ayudar a sus Estados miembros a responder a estos retos, así se presentan las acciones llevadas a cabo en el marco universal por las Naciones Unidas y en el ámbito europeo por el Consejo de Europa y la Unión Europea. https://www.academia.edu/42136124/Derechos_Humanos_e_Inteligencia_Artificial?email_work_card=view-paper  Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publica

Sistemas de Recomendación y Retos Éticos

Este artículo presenta el primer análisis sistemático de los desafíos éticos que plantea el recomendador sistemas. A través de una revisión de la literatura, el artículo identifica seis áreas de preocupación y las mapea sobre una taxonomía propuesta de diferentes tipos de impacto ético. El análisis descubre una brecha en el literatura: los enfoques actualmente centrados en el usuario no consideran los intereses de una variedad de otros partes interesadas, a diferencia de los receptores de una recomendación, en la evaluación de la ética impactos de un sistema de recomendación.  https://philpapers.org/rec/MILRSA-3 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Los algoritmos gubernamentales están socavando la democracia; abramos su diseño a la gente

Los algoritmos parecen estar en retroceso en el Reino Unido, por ahora. Los gobiernos nacionales no solo cambiaron recientemente su uso de algoritmos para asignar las calificaciones de los que abandonan la escuela, sino que numerosas autoridades locales también han eliminado tecnología similar utilizada para tomar decisiones sobre beneficios y otros servicios de bienestar. En muchos de estos casos, esto se debió a que se descubrió que los algoritmos conducían a resultados sesgados e injustos. Pero, ¿por qué nadie se dio cuenta de que estos algoritmos producirían resultados tan dañinos antes de que salieran al mundo real haciendo un daño real? La respuesta puede ser que el público no esté adecuadamente representado en los procesos de desarrollo e implementación de nuevos sistemas. Esto no solo aumenta las posibilidades de que las cosas salgan mal, sino que también socava la confianza pública en el gobierno y su uso de datos, lo que limita las oportunidades para que los algoritmos se uti

La corte de apelaciones escucha el caso de vigilancia aérea de Baltimore

El comisionado de policía de Baltimore, Michael Harrison, ha dicho que las imágenes solo pueden usarse para investigar homicidios, tiroteos no fatales, robos a mano armada y robos de vehículos. La abogada del departamento, Rachel Simmonsen, dijo a los jueces que las imágenes han ayudado a la policía a investigar dos casos. "No es un píxel que tiene un derecho constitucional, es una persona individual que tiene un derecho constitucional, y la expectativa razonable de la Cuarta Enmienda solo puede ser invadida por una persona", dijo Simmonsen, argumentando que los demandantes carecen de legitimación en el caso. "Aquí, el daño específico que alegan es que serán identificados, pero incluso eso es muy poco probable". Pero los demandantes han dicho que el solo hecho de saber que se están grabando sus movimientos hace que la gente se muestre reacia a participar en eventos comunitarios. El juez principal Roger L. Gregory pareció no estar de acuerdo con los argumentos de Sim

Privacidad en la pandemia: ley, tecnología y salud pública en la crisis del COVID-19

La pandemia de COVID-19 ha causado millones de muertes y consecuencias desastrosas en todo el mundo, con repercusiones duraderas en todos los campos del derecho, incluidas la privacidad y la tecnología. Las características únicas de esta pandemia han precipitado un aumento en el uso de nuevas tecnologías, incluidas las plataformas de comunicaciones remotas, los robots sanitarios y la IA médica. Los actores públicos y privados están utilizando nuevas tecnologías, como la detección de calor, y programas de influencia tecnológica, como el rastreo de contactos, por igual en respuesta, lo que lleva a un aumento en la vigilancia gubernamental y corporativa en sectores como la salud, el empleo, la educación y el comercio. Los defensores han dado la alarma por violaciones a la privacidad y las libertades civiles, pero la naturaleza de emergencia de la pandemia ha ahogado muchas preocupaciones. Este artículo es el primer relato completo de los impactos a la privacidad relacionados con la tecnol

Riesgos de Discriminación por el Uso de Algoritmos

Estudio detallado sobre casos de discriminación en diferentes ámbitos y la necesidad de detectarlos y los riesgos que tiene.  Algoritmos: el estudio se centra en los algoritmos que se utilizan para el procesamiento de datos y la implementación semi o totalmente automatizada de reglas de toma de decisiones para diferenciar entre individuos. Tal Las diferenciaciones se relacionan con productos, servicios, posiciones o pagos económicos, así como con decisiones estatales. y acciones que afecten las libertades individuales o la distribución de servicios.  Discriminación: las diferenciaciones basadas en algoritmos se vuelven discriminatorias si conducen a Desventaja de personas con características legalmente protegidas, en particular edad, género, origen étnico, religión, orientación sexual o discapacidad. El estudio describe casos en los que el algoritmo y los datos las diferenciaciones se han clasificado legalmente como discriminación o se analizan y discuten como riesgos de discriminación

Estrategia Nacional de Datos de Reino Unido

 La Estrategia Nacional de Datos (NDS) es una estrategia ambiciosa a favor del crecimiento que impulsa al Reino Unido a construir una economía de datos líder en el mundo al tiempo que garantiza la confianza pública en el uso de datos. https://www.gov.uk/guidance/national-data-strategy Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Portland adopta la legislación más estricta hasta la fecha en reconocimiento facial

 El Ayuntamiento de Portland votó sobre dos ordenanzas relacionadas con el reconocimiento facial: una que prohíbe el uso por parte de entidades públicas, incluida la policía, y la otra que limita su uso por entidades privadas. Ambas medidas fueron aprobadas por unanimidad, según Oregon Public Broadcasting, afiliada local de NPR y PBS. La primera ordenanza (PDF) prohíbe la "adquisición y uso" de tecnologías de reconocimiento facial por cualquier oficina de la ciudad de Portland. El segundo (PDF) prohíbe a las entidades privadas utilizar tecnologías de reconocimiento facial "en lugares de alojamiento público" de la ciudad. Ambas ordenanzas sostienen que la tecnología de reconocimiento facial tiene un impacto desigual en las comunidades desfavorecidas, particularmente las personas de color y las personas con discapacidades, y que esos efectos desproporcionados van en contra del compromiso de la ciudad con "principios de derechos humanos como la privacidad y la lib

El recién creado Institute for Ethics in AI de la Univ. Oxford dará un papel principal a la Filosofía

 ¿Qué papel visualiza para el Instituto? “Mi objetivo es que el Instituto lleve los más altos estándares de rigor académico a la discusión sobre la ética de la IA. El Instituto está fuertemente arraigado en la filosofía y no conozco ningún otro centro en ese sentido. En Oxford, tenemos el departamento de Filosofía más grande del mundo de habla inglesa e históricamente ha tenido una presencia muy poderosa en la disciplina. También nos basaremos en otras disciplinas como literatura, medicina, historia, música, derecho e informática. Este es un intento radical de salvar la brecha entre ciencia y humanidades en esta área y Oxford está en una posición única para lograrlo '. https://www.ox.ac.uk/news/arts-blog/qa-john-tasioulas-new-director-institute-ethics-ai# Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesar

El vuelo hacia la IA crítica en seguridad

 El documento analiza la industria de la aviación como un caso de estudio para la adopción de estándares de seguridad de IA y cómo un enfoque medido para aplicarlos primero en contextos no críticos como el mantenimiento predictivo, la planificación de rutas y el apoyo a la toma de decisiones es un mejor enfoque para desarrollar estándares y prácticas que luego pueden aplicarse a escenarios más críticos para la seguridad, como el control de vuelo. También destaca la importancia de la coherencia entre jurisdicciones en este ámbito, ya que la aceptación de la seguridad de vuelo es una piedra angular para el comercio y el movimiento de capital y mano de obra a través de las fronteras. El documento también aplica el marco paradigmático de diferentes tipos de carreras y menciona que, según los hallazgos preliminares, está claro que hay una carrera suave hacia la cima en términos de estándares de seguridad dado el fuerte énfasis de este dominio en la seguridad operativa sobre todo lo demás. F

Se han creado estándares de IA para ayudar a abordar el problema de los estudios médicos sobrevalorados

Un equipo internacional de expertos ha lanzado un conjunto de pautas bajo las cuales se espera que los ensayos clínicos que involucren IA cumplan con una estricta lista de verificación de criterios antes de ser publicados en las principales revistas. Los nuevos estándares se están publicando simultáneamente en BMJ, Nature Medicine y Lancet Digital Health, ampliando los estándares existentes para ensayos clínicos, implementados hace más de una década para medicamentos, pruebas de diagnóstico y otras intervenciones, para hacerlos más adecuados para Sistemas basados en IA. El profesor Alastair Denniston de la Universidad de Birmingham, experto en el uso de IA en la atención médica y miembro del equipo, dijo que las pautas eran cruciales para garantizar que los sistemas de IA fueran seguros y efectivos para su uso en entornos de atención médica. https://www.theguardian.com/technology/2020/sep/09/ai-standards-launched-help-tackle-problem-overhyped-studies-artificial-intelligence Editado por

Respuesta de AlgorithWatch a la planeada Digital Services Act de la Comisión Europea

 El documento hace énfasis en el rendimiento de cuentas y la auditabilidad de los sistemas. https://algorithmwatch.org/en/submission-digital-services-act-dsa/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La tecnología y la IA son humanas hasta el final

 Debemos evitar el determinismo tecnológico, la idea de que la tecnología lidera y la sociedad simplemente sigue. Eso es una mentira y una conveniente evasión de responsabilidad para quienes construyen sus valores en estas tecnologías. La tecnología y la inteligencia artificial son humanas hasta el final, construidas para promover, optimizar o sistematizar, crear poder y realizar valores específicos en el mundo. Los seres humanos son los creadores de esta tecnología y debemos asegurarnos de que la responsabilidad humana no se pierda. https://www.scotsman.com/business/shannon-vallor-technology-and-ai-are-human-all-way-down-2956565?s=03 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

El canciller Wang Yi busca contrastar con la política y el comportamiento tecnológico de EE. UU.

 El ministro de Relaciones Exteriores de China, Wang Yi, anunció el 8 de septiembre una "Iniciativa Global de Seguridad de Datos" respaldada por el gobierno chino. Wang Yi dijo que para enfrentar de manera efectiva el desafío de las amenazas a la seguridad de los datos, se deben seguir tres principios: Primero, adherirse al multilateralismo. Debemos persistir en la discusión colectiva, la construcción colectiva y el beneficio colectivo. Sobre la base de una amplia participación de todas las partes, debemos alcanzar principios de seguridad de datos globales que reflejen los deseos de cada país y respeten los intereses de todas las partes. En segundo lugar, asumir tanto la seguridad como el desarrollo. Cada país tiene derecho a proteger la seguridad de los datos de su país de acuerdo con la ley, y todos deben proporcionar a todas las empresas un entorno empresarial abierto, equitativo y no discriminatorio. El proteccionismo digital viola las leyes objetivas del desarrollo econó

Vigilancia digital por parte de los servicios de inteligencia: los estados deben tomar medidas para proteger mejor a las personas

 “Los países deben acordar a nivel internacional en qué medida se puede autorizar la vigilancia que realizan los servicios de inteligencia, en qué condiciones y según qué salvaguardas, incluida la supervisión independiente y efectiva”, subrayaron. El desarrollo de un nuevo estándar legal podría basarse en los numerosos criterios ya desarrollados por los tribunales, incluido el Tribunal Europeo de Derechos Humanos y el Tribunal Supremo de los Estados Unidos. https://rm.coe.int/statement-schrems-ii-final-002-/16809f79cb Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Cómo hacer que los algoritmos sean justos cuando no sabes lo que hacen

Las decisiones que cambian la vida están sucediendo en la oscuridad. Los algoritmos de aprendizaje automático ahora determinan las decisiones desde las solicitudes de préstamos hasta los diagnósticos de cáncer. En Francia, colocan a los niños en las escuelas. En Estados Unidos, determinan las penas de prisión. Pueden establecer puntajes de crédito y tasas de seguro, y decidir el destino de los candidatos a puestos de trabajo y los solicitantes universitarios. Pero estos programas a menudo no rinden cuentas. Para llegar a sus decisiones, los algoritmos de aprendizaje automático construyen automáticamente modelos complejos basados en grandes conjuntos de datos, por lo que incluso las personas que los utilizan pueden no ser capaces de explicar por qué o cómo se llega a una conclusión en particular. Son una caja negra.  Los contrafactuales son declaraciones de cómo el mundo tendría que ser diferente para que ocurra un resultado diferente: si ganara 10.000 libras esterlinas más al año, habr

Transparencia, integridad y rendimiento de cuentas en las instituciones europeas

 La transparencia, la integridad y la responsabilidad son los requisitos previos esenciales de una democracia basada en el ley. Promueven la buena gobernanza y generan confianza en el proceso de formulación de políticas, mejorando así la legitimidad y credibilidad de las instituciones públicas. También son herramientas políticas extremadamente importantes para prevenir corrupción y malas prácticas de gobierno. La transparencia requiere la divulgación de información sobre la formulación de políticas y el gasto, al tiempo que se garantiza la acceso a dicha información. Por lo tanto, es un elemento clave para generar responsabilidad y confianza en los tomadores de decisiones. En este sentido, el seguimiento y la fiscalización son herramientas necesarias para garantizar la rendición de cuentas de la ciudadanía. instituciones, mientras que los enfoques participativos involucran a la sociedad civil en este proceso. La noción de integridad de instituciones públicas implica el uso de sus poder

Garantías frente al uso de inteligencia artificial y decisiones automatizadas en el sector público y la sentencia holandesa de febrero de 2020

  El uso de IA también se va dando en el sector público, como en la lucha contra el fraude y las ilegalidades. A las garantías generales de protección de datos han de añadirse las especiales de las decisiones automatizadas y esencialmente garantías de transparencia y white box frente a sistemas de «caja negra». La sentencia d de febrero de 2020 el Tribunal de Distrito de la Haya sobre el sistema SyRI contra el fraude es especialmente exigente. El control previo de sistemas IA de alto riesgo por el que aboga la UE habrá de servir para detectar las muchas deficiencias que probablemente se están dando ya en España, como el caso seguramente inconstitucional Ley 22/2018 valenciana. https://www.academia.edu/42979949/_SyRI_a_qui%C3%A9n_sanciono_Garant%C3%ADas_frente_al_uso_de_inteligencia_artificial_y_decisiones_automatizadas_en_el_sector_p%C3%BAblico_y_la_sentencia_holandesa_de_febrero_de_2020?email_work_card=title Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia

Es difícil para las redes neuronales aprender el juego de la vida

 Los esfuerzos para mejorar las capacidades de aprendizaje de las redes neuronales se han centrado principalmente en el papel de los métodos de optimización más que en las inicializaciones ponderadas. Sin embargo, hallazgos recientes sugieren que las redes neuronales se basan en pesos iniciales aleatorios afortunados de subredes llamadas "billetes de lotería" que convergen rápidamente en una solución. Para investigar cómo las inicializaciones de peso afectan el rendimiento, examinamos pequeñas redes convolucionales que están entrenadas para predecir n pasos del autómata celular bidimensional Conway's Game of Life, cuyas reglas de actualización se pueden implementar de manera eficiente en una red convolucional de capa 2n + 1. Encontramos que las redes de esta arquitectura entrenadas en esta tarea rara vez convergen. Más bien, las redes requieren sustancialmente más parámetros para converger de manera consistente. Además, las arquitecturas casi mínimas son sensibles a peque

Manifiesto en favor de la transparencia en desarrollos de software públicos

  Este manifiesto expone la necesidad de seguir una serie de pautas en desarrollos de software destinados a servir al público, con Radar COVID como ejemplo. Radar COVID es uno de los primeros ejemplos de la nueva generación de infraestructura pública. Estas pautas describen elementos imprescindibles para implementar procesos abiertos que permitan a la sociedad participar en la integración de nuevas tecnologías en la administración desarrolladas con dinero público. Entre otros, la publicación de documentación y código que provean a la comunidad científica y la sociedad civil de la capacidad de escrutinio necesaria para identificar puntos a mejorar y contribuir a desarrollar y desplegar soluciones digitales democráticas, inclusivas y conformes a los más altos estándares. La infraestructura pública es parte del bien común de una sociedad. Mediante ella se ordena y estructura la sociedad, creando las reglas de acceso y disponibilidad a servicios sociales. Su legitimidad depende de su grado

Informe de la UNESCO sobre IA e Igualdad de Género

 Si bien la IA plantea amenazas importantes para la igualdad de género, es importante reconocer que la IA también tiene el potencial de realizar cambios positivos en nuestras sociedades al desafiar las normas de género existentes. Por ejemplo, si bien se descubrió que un software de reclutamiento impulsado por inteligencia artificial discrimina a las mujeres, los decodificadores de género impulsados ​​por inteligencia artificial ayudan a los empleadores a usar un lenguaje sensible al género para escribir ofertas de trabajo que son más inclusivas para aumentar la diversidad de su fuerza laboral. Por lo tanto, la IA tiene el potencial de ser parte de la solución para promover la igualdad de género en nuestras sociedades. Mientras la UNESCO está redactando su Recomendación sobre la ética de la inteligencia artificial, es importante reflexionar sobre cómo integrar mejor las consideraciones de igualdad de género en tales marcos normativos mundiales. También es crucial examinar de cerca cómo

Los motores de búsqueda centrados en la privacidad devuelven más información errónea sobre la salud, afirman los investigadores

 Un nuevo estudio supervisado por el Oxford Internet Institute (OII) afirma que los motores de búsqueda que preservan la privacidad, como DuckDuckGo, devuelven más información errónea sobre la salud, como los sitios anti-vacunas, que Google. El estudio, publicado en Frontiers in Medicine, analizó las primeras 30 páginas web devueltas con el término de búsqueda “vacunas contra el autismo”, para medir el volumen de información anti-vax que surgió. Descubrió que los motores de búsqueda "alternativos" (Duckduckgo, Ecosia, Qwant, Swisscows y Mojeek) y otros motores comerciales (Bing, Yahoo) arrojaban entre un 10% y un 53% de páginas antivacunas, mientras que Google obtenía un 0%. Google ha atraído cada vez más críticas en los últimos años por la gran cantidad de datos personales que acumula. Esto ha llevado a la aparición de rivales centrados en la privacidad como DuckDuckGo, que han ganado una base de apoyo vocal en un corto período de tiempo. DuckDuckGo evita expresamente person

Desinformación y propaganda: impacto en el funcionamiento del Estado de derecho en la UE y sus Estados miembros Departamento de Política de Derechos de los Ciudadanos y Asuntos Constitucionales

 Este estudio, encargado por el Departamento de Política de Derechos de los Ciudadanos y Asuntos Constitucionales del Parlamento Europeo y solicitado por la Comisión de Libertades Civiles, Justicia y Asuntos de Interior del Parlamento Europeo, evalúa el impacto de la desinformación y la propaganda política estratégica difundida a través de los sitios de redes sociales en línea. Examina los efectos sobre el funcionamiento del Estado de Derecho, la democracia y los derechos fundamentales en la UE y sus Estados miembros. El estudio formula recomendaciones sobre cómo abordar esta amenaza para los derechos humanos, la democracia y el Estado de Derecho. Aborda específicamente el papel de los proveedores de plataformas de redes sociales en este sentido. https://www.academia.edu/38766246/Disinformation_and_propaganda_impact_on_the_functioning_of_the_rule_of_law_in_the_EU_and_its_Member_States_Policy_Department_for_Citizens_Rights_and_Constitutional_Affairs?email_work_card=title Editado por Ani

El sheriff de Pasco creó un programa futurista para detener el crimen antes de que suceda

El alguacil del condado de Pasco, Chris Nocco, asumió el cargo en 2011 con un plan audaz: crear un programa de inteligencia de vanguardia que pudiera detener el crimen antes de que ocurriera. Lo que realmente construyó fue un sistema para monitorear y acosar continuamente a los residentes del condado de Pasco, según descubrió una investigación del Tampa Bay Times. Primero, la Oficina del Sheriff genera listas de personas que considera susceptibles de violar la ley, basándose en antecedentes de arrestos, inteligencia no especificada y decisiones arbitrarias de analistas policiales. Luego envía agentes para encontrar e interrogar a cualquier persona cuyo nombre aparezca, a menudo sin causa probable, una orden de registro o evidencia de un delito específico. Abundan las casas en medio de la noche, despertando a las familias y avergonzando a las personas frente a sus vecinos. Escriben multas por los números de buzón que faltan y el césped cubierto de maleza, cargando a los residentes con f

La Patrulla Fronteriza ha utilizado el reconocimiento facial para escanear más de 16 millones de volantes y solo capturó a 7 impostores

 La agencia que administra el programa de reconocimiento facial en el aeropuerto y la frontera de los Estados Unidos no ha informado adecuadamente al público sobre cómo funciona, según un nuevo informe. En general, el informe se lee como una gran señal de alerta: el gobierno de los EE. UU. Está avanzando con la adopción de esta tecnología cuestionable, y no informa al público ni controla la precisión. Por ley, se supone que la Patrulla de Aduanas y Fronteras debe informar al público cuando se usa el reconocimiento facial colocando carteles claros y legibles que le digan a las personas que se están escaneando sus rostros y cómo pueden optar por no participar. También se supone que el departamento debe poner información precisa y actualizada en línea sobre su reconocimiento facial y proporcionar información a través de su centro de llamadas. https://onezero.medium.com/border-patrol-used-facial-recognition-to-scan-more-than-16-million-fliers-and-caught-7-imposters-21332a5c9c40 Editado por