Entradas

Mostrando entradas de noviembre, 2020

La privacidad es colectiva, como el medioambiente. Si no cuidas tus datos, otros sufren las consecuencias

  La economía de datos se ha desplegado ante nuestras narices durante la última década, argumenta, y nos dimos cuenta tarde de la gravedad de sus consecuencias. Por eso, concluye Véliz, la única respuesta posible es acabar con el modelo. Hay que regular de una vez el uso de los datos y prohibir que se pueda comerciar con ellos. https://retina.elpais.com/retina/2020/11/27/talento/1606484799_921538.html

LA INTELIGENCIA ARTIFICIAL Y SU USO EN EL SECTOR PÚBLICO

 En un momento de creciente complejidad, incertidumbre y demandas cambiantes, los gobiernos y los funcionarios públicos necesitan comprender, evaluar e incorporar nuevas formas de hacer las cosas. El OPSI les ayuda arrojando luz sobre los esfuerzos de los gobiernos por crear políticas y servicios más eficientes y adecuados y acompañándolos al momento de explorar e implementar enfoques innovadores. El gobierno puede utilizar la IA para innovar, de hecho, en muchos casos ya lo está haciendo. Por ejemplo, varios líderes a nivel mundial ya cuentan con estrategias para desarrollar la capacidad de la IA como prioridad nacional. La IA se puede utilizar para que los procesos actuales sean más eficientes y precisos. Se puede utilizar para consumir y analizar información no estructurada, como los tweets, para ayudar a los gobiernos a conocer las opiniones de los ciudadanos. Por último, al mirar hacia el futuro, será importante considerar y prepararse para las implicaciones de la IA en la socieda

Libertad, flexibilidad, precariedad y vulnerabilidad en la economía colaborativa en África

 Para muchos de nosotros todavía atrapados en medio de una pandemia mundial, el concepto de un trabajo de oficina regular de nueve a cinco parece un pasado lejano. COVID 19, entre sus muchas lecciones sociales, ha puesto de manifiesto y ha acelerado la transformación digital del trabajo, donde el trabajo puede continuar realizándose en cualquier lugar, en cualquier momento, siempre que tengamos acceso inmediato a una computadora e Internet. Si bien el empleo a distancia basado en Internet puede ser un nuevo componente de nuestras vidas, el advenimiento del trabajo mediado digitalmente ha dejado su huella en África desde hace mucho tiempo. https://montrealethics.ai/between-a-rock-and-a-hard-place-freedom-flexibility-precarity-and-vulnerability-in-the-gig-economy-in-africa-research-summary/

EL LIBRO BLANCO FRANCÉS SOBRE SEGURIDAD INTERNA HACE VARIAS PROPUESTAS PARA EL USO DEL RECONOCIMIENTO FACIAL EN FRANCIA

 Un muy importante Libro Blanco sobre Seguridad Interior, publicado el 16 de noviembre de 2020 por el Ministerio del Interior francés, presenta varias propuestas para el uso de la Tecnología de Reconocimiento Facial (FRT) por parte de las autoridades públicas en Francia. El Libro Blanco sobre Seguridad Interior es un documento con visión de futuro, que contiene cerca de 200 propuestas, basadas en lo que denomina los “retos de seguridad interior” del siglo XXI. Sucede al anterior "Libro blanco sobre seguridad pública", publicado en 2011. El cuarto folleto del Libro Blanco de Seguridad Interior, titulado “Llevando al Ministerio del Interior a la Frontera Tecnológica”, aborda temas en torno a las nuevas tecnologías y dedica dos partes específicas al uso de FRT. Esta breve publicación presentará brevemente estas propuestas relacionadas con FRT, mientras que una publicación separada presentará otras propuestas relacionadas con la IA en el Libro Blanco. https://ai-regulation.com/fr

Nuevo régimen de competencia para los gigantes tecnológicos para brindar a los consumidores más opciones y control sobre sus datos, y garantizar que las empresas reciban un trato justo.

 Los gigantes tecnológicos estarán sujetos a un nuevo régimen para brindar a los consumidores más opciones y control sobre sus datos, ayudar a las pequeñas empresas a prosperar y garantizar que los medios de comunicación no sean obligados a salir por sus rivales más grandes. Una Unidad de Mercados Digitales dedicada, que se establecerá dentro de la Autoridad de Competencia y Mercados (CMA), trabajará en estrecha colaboración con los reguladores, incluidos Ofcom y la Oficina del Comisionado de Información para introducir y hacer cumplir un nuevo código que regule el comportamiento de las plataformas que actualmente dominan el mercado, como Google y Facebook, para garantizar que los consumidores y las pequeñas empresas no estén en desventaja. Las plataformas en línea brindan enormes beneficios para las empresas y la sociedad. Sus servicios hacen que el trabajo sea más fácil y rápido y ayudan a las personas a mantenerse en contacto entre sí. Millones de personas comparten contenido creati

¿La IA está haciendo que las personas pierdan la sensación de logro?

 Hay mucha discusión sobre el desplazamiento de puestos de trabajo debido a la automatización basada en IA y la carga económica resultante. Pero qué pasa con los trabajos que no se pierden por completo, sin embargo, pierden su significado debido a la automatización. Estos eventos eventualmente conducen a una disminución del sentido de logro entre los trabajadores. Un artículo reciente, publicado como parte del programa de investigación Ética de las tecnologías socialmente disruptivas en los Países Bajos, sostiene que el logro es una parte clave de lo que hace que el trabajo sea significativo y que los avances en IA y automatización dan lugar a una serie de `` brechas de rendimiento '' en el lugar de trabajo. https://analyticsindiamag.com/is-ai-making-people-lose-a-sense-of-achievement/

Revisión del sesgo en la toma de decisiones algorítmicas

 Los prejuicios injustos, ya sean conscientes o inconscientes, pueden ser un problema en muchos procesos de toma de decisiones. Esta revisión considera el impacto que un uso creciente de herramientas algorítmicas está teniendo sobre el sesgo en toma de decisiones, los pasos necesarios para gestionar los riesgos y las oportunidades que ofrece un mejor uso de los datos para mejorar la equidad. Nos hemos centrado en el uso de algoritmos en decisiones importantes sobre individuos, analizando cuatro sectores (contratación, servicios financieros, vigilancia y gobierno local) y haciendo recomendaciones transversales que tienen como objetivo ayudar a construir los sistemas adecuados para que los algoritmos mejoren, en lugar de que empeorar, la toma de decisiones. https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/939109/CDEI_review_into_bias_in_algorithmic_decision-making.pdf

Usar la inteligencia artificial para tomar decisiones: abordar el problema del sesgo algorítmico

La IA es cada vez más utilizada por el gobierno y empresas para tomar decisiones que afectar los derechos de las personas, incluso en el provisión de bienes y servicios, así como otra importante toma de decisiones como contratación, seguridad social y vigilancia. Donde surge el sesgo algorítmico en estos procesos de toma de decisiones, puede dar lugar a errores. Especialmente en la toma de decisiones de alto riesgo, los errores pueden causar un daño real. El daño puede ser  particularmente grave si una persona es injustamente desfavorecidos sobre la base de su raza, edad, sexo u otro caracteristicas. En algunas circunstancias, esto puede equivaler a ilegal discriminación y otras formas de violación de los derechos humanos. https://humanrights.gov.au/sites/default/files/document/publication/ahrc_technical_paper_algorithmic_bias_2020.pdf

¿Programando los derechos humanos y las responsabilidades? “El experimento de la máquina moral” y la necesidad de un futuro de los Vehículos Autónomos más “humano”

 Se espera que las situaciones de dilema que involucran la elección de qué vida humana salvar en el caso de accidentes inevitables surjan solo en raras ocasiones en el contexto de los vehículos autónomos (AV). No obstante, la comunidad científica ha dedicado una atención significativa a encontrar decisiones automatizadas apropiadas y (socialmente) aceptables en el caso de que los AV o los conductores de AV tuvieran que enfrentarse a tales situaciones. Awadand y sus colegas, en su ahora famoso artículo "The MoralMachine Experiment", utilizaron un "juego serio en línea multilingüe" para recopilar datos a gran escala sobre cómo los ciudadanos querrían que los vehículos autónomos resolvieran dilemas morales en el contexto de accidentes inevitables ". conjunto de datos filosóficamente útiles de intuiciones de sillón. Sin embargo, sostenemos que la aplicación de sus hallazgos al desarrollo de “principios globales y socialmente aceptables para el aprendizaje automátic

La investigación del reconocimiento facial necesita un reconocimiento ético

 Durante los últimos 18 meses, varias universidades y empresas han eliminado conjuntos de datos en línea que contienen miles, o incluso millones, de fotografías de rostros que se utilizan para mejorar los algoritmos de reconocimiento facial. En la mayoría de los casos, los investigadores extrajeron estas imágenes de Internet. Las imágenes se clasifican como datos públicos y su recopilación no pareció alarmar a las juntas de revisión institucional (IRB) ni a otros organismos de ética de la investigación. Pero a ninguna de las personas en las fotos se les había pedido permiso, y algunas estaban descontentas por la forma en que se habían usado sus caras. Este problema ha sido destacado por el trabajo del artista e investigador con sede en Berlín Adam Harvey, quien destacó cómo las empresas utilizan conjuntos de datos públicos para perfeccionar la tecnología vinculada a la vigilancia, y por los periodistas que informaron sobre el trabajo de Harvey. Muchos investigadores en los campos de la

"Rules as Code" permitirá que las computadoras apliquen leyes y regulaciones. Pero las interpretaciones demasiado rígidas socavarían nuestras libertades

 Las máquinas no pueden leer ni responder a las reglas que se expresan en el lenguaje humano. Para que las reglas sean legibles por máquina y procesables, la interpretación de las reglas también debe estar codificada. Determinar la mejor manera de codificar las leyes es importante a medida que nos adentramos en un futuro digital. Décadas en la fabricación La codificación de las normas legales no es completamente nueva. Durante las últimas cinco décadas, los investigadores en inteligencia artificial y derecho han producido una variedad de versiones codificadas formalmente de leyes tributarias y de otro tipo. https://theconversation.com/rules-as-code-will-let-computers-apply-laws-and-regulations-but-over-rigid-interpretations-would-undermine-our-freedoms-149992

"Ha llegado el momento de la regulación internacional de la inteligencia artificial": una entrevista a Andrew Murray

 Estraordinaria entrevista donde se habla de la autonomía de las personas ante la IA, de la ley, de la explicabiidad y sobre todo de la Agencia Humana frente o mediada por la IA. Hace una llamada a empezar a debatir y regular. https://opiniojuris.org/2020/11/25/the-time-has-come-for-international-regulation-on-artificial-intelligence-an-interview-with-andrew-murray/

Un enfoque legal de los "algoritmos discriminación positiva"

Una rama separada de la jurisprudencia de acción afirmativa, vinculada a la contratación del gobierno, ha permitido durante mucho tiempo preferencias explícitas de raza y género. Las agencias federales, estatales y locales crean reservas reservadas y preferencias de licitación para los contratistas de propiedad de minorías, y esas preferencias han sido aprobadas legalmente porque las agencias podrían documentar sus propias historias de discriminación. Ho dice que los defensores de la equidad bien podrían justificar las correcciones basadas en la raza o el género sobre la base de la discriminación pasada. Al igual que el sistema de Amazon, la mayoría de los modelos de inteligencia artificial se entrenan con datos históricos que pueden incorporar patrones pasados ​​de discriminación. Lo que enfatiza la ley, dice Ho, es que la magnitud del ajuste debe seguir la evidencia de discriminación histórica. El precedente de contratación gubernamental permite una cuantificación explícita, lo que h

Conclusiones del Consejo sobre política de propiedad intelectual y la revisión del sistema de diseños industriales en la Unión

  https://www.consilium.europa.eu/media/46671/st-12750-2020-init.pdf

Cuando los algoritmos compiten, ¿quién gana?

 Con el tiempo, los algoritmos de predicción se especializan para una porción cada vez más estrecha de la población y la calidad media de sus predicciones disminuye. Antes de comenzar su investigación, el equipo de Zou reconoció que existe una dinámica de retroalimentación en juego si los algoritmos de aprendizaje automático de las empresas compiten por usuarios o clientes y, al mismo tiempo, utilizan datos de clientes para entrenar su modelo. “Al ganar clientes, obtienen un nuevo conjunto de datos de esos clientes y, luego, al actualizar sus modelos en este nuevo conjunto de datos, en realidad cambian el modelo y lo orientan hacia los nuevos clientes que han ganado. terminado ”, dice Ginart. El equipo se preguntó: ¿Cómo podría esa retroalimentación afectar la capacidad de los algoritmos para brindar recomendaciones de calidad? Para obtener una respuesta, analizaron matemáticamente la competencia algorítmica y la simularon utilizando algunos conjuntos de datos estándar. Al final, descu

QUÉ ES LA EMERGENCIA DIGITAL Y CÓMO AFRONTARLA

  La transformación digital interfiere en todos los niveles de nuestra vida: en nuestra esfera más personal con cambios en la comunicación o las relaciones afectivas, en nuestro entorno social y público, transformando la educación o el trabajo, e incluso a un nivel más intangible, influyendo en   la privacidad de nuestros datos . La tecnología es fruto de décadas de investigación, ciencia y desarrollo para dar respuesta a las aspiraciones y necesidades de la humanidad. Pero, a su vez, las   tecnologías emergentes nos muestran las dos caras de una moneda:  contribuyen al progreso económico y social, fomentando el desarrollo y el bienestar humano, pero su uso genera desequilibrios y desigualdades a nivel global,   incrementando las brechas   entre aquellos colectivos más favorecidos y aquellos más vulnerables. Por eso, hay que actuar, y hay que hacerlo ya. Estamos ante una emergencia digital, agudizada por la crisis de la COVID-19.   Digital Future Society   aborda los  dile

La ciudad holandesa utiliza un algoritmo para evaluar el valor de la vivienda, pero no tiene ni idea de cómo funciona

 En un caso aparentemente rutinario en el tribunal de apelaciones de Ámsterdam, un juez dictaminó que era aceptable que un municipio utilizara un algoritmo de caja negra, siempre que los resultados no fueran sorprendentes. En 2016, el municipio de Castricum, una ciudad costera de 35.000 habitantes en Holanda, fijó el valor de la vivienda de un reclamante anónimo en 320.000 € (en los Países Bajos, el impuesto a la propiedad se paga sobre la base del valor de reventa estimado de la vivienda). Demasiado alto, dijo el demandante, que acudió rápidamente a los tribunales. El reclamante argumentó que su propiedad resultó dañada por un terremoto, por lo que su valor de reventa fue mucho menor. Los lectores sentados en una falla sísmica pueden reírse de la idea de terremotos en Holanda, pero sí ocurrió un terremoto a 10 kilómetros de Castricum el 30 de enero de 1997, magnitud 2. El municipio ofreció visitar la casa nueve veces para evaluar los daños, pero el reclamante declinó, citando preocupa

Trabajo ¿una mercancía?

 En 1919 y nuevamente en 1944, los líderes mundiales acordaron que el trabajo no es una mercancía. Sin embargo, hoy en día, a medida que se extraen datos de los trabajadores y se les perfila continuamente, el trabajo se está convirtiendo en una mercancía. Un objeto. Todos nos estamos convirtiendo en un conjunto de puntos de datos, de estadísticas y de análisis de probabilidad. Tiene que parar. En 1919, como parte del Tratado de Versalles que puso fin a la Primera Guerra Mundial, la Organización Internacional del Trabajo (OIT) nació con la creencia de que la paz universal y duradera solo se puede lograr si se basa en la justicia social. https://www.thewhynotlab.com/post/labour-a-commodity

El caso ético de los fiduciarios de datos

 En una sociedad que defiende el estado de derecho, deberíamos proteger a los internautas al menos tanto como protegemos a los sospechosos de delitos. Nuestros datos personales no deben utilizarse como un arma en contra de nuestros mejores intereses. Para lograr tal objetivo, necesitaríamos obligar a las instituciones que recopilan y administran datos personales a estrictas obligaciones fiduciarias. [2] Esto haría que las empresas que poseen datos personales tengan un deber equivalente de lealtad y atención a sus clientes que los fiduciarios, como asesores financieros, médicos y abogados. La palabra fiduciario proviene del verbo latino fidere, confiar. La confianza está en el corazón de las relaciones fiduciarias. Primero, porque al fiduciario se le confía algo muy valioso: sus finanzas, su cuerpo, sus asuntos legales o sus datos personales. En segundo lugar, porque al confiar este bien valioso a otros, usted se vuelve extremadamente vulnerable a ellos. Al aceptar lo que se les confía

Propuesta de Reglamento sobre gobernanza europea de datos (Data Governance Act)

La propuesta es la primera de un conjunto de medidas anunciadas en la estrategia europea de datos de 2020. El instrumento tiene como objetivo fomentar la disponibilidad de datos para su uso aumentando la confianza en los intermediarios de datos y reforzando los mecanismos de intercambio de datos en toda la UE. https://ec.europa.eu/digital-single-market/en/news/proposal-regulation-european-data-governance-data-governance-act  

Estrategia Nacional IA de UK

https://www.gov.uk/government/publications/uk-national-data-strategy/national-data-strategy

La IA ya no se puede desconectar

 ¿Cuál es el futuro de la IA en los Países Bajos? Esa es una pregunta que es casi imposible de responder. Porque: ¿qué es exactamente la IA, qué escenarios futuros existen y quién determina "lo que queremos" y sobre qué base? La tercera parte de la trilogía STT "el futuro de la IA" se centra en esa tercera cuestión normativa. El objetivo es generar una amplia discusión social sobre este tema, porque la IA nos tocará a todos de una forma u otra: directamente, como usuarios de aplicaciones, pero también indirectamente, cuando otras personas y organizaciones utilizan IA, por ejemplo, los médicos que permiten que un escaneo se analice algorítmicamente para poder hacer un diagnóstico. Esto no es ciencia ficción; mucho de eso ya es posible. Incluso hoy en día, el impacto de la IA es significativo y se espera que el impacto solo aumente. Por eso es bueno centrarse explícitamente en las opciones éticas y sociales asociadas. https://detoekomstvanai.nl/wp-content/uploads/2020

Reinventar las plataformas en línea: ¿es suficiente el nuevo paquete regulador de la UE?

 En la época de la pandemia, obligados a movernos en línea, incluso los humildes restos de la vida fuera de línea que mantuvimos experimentaron el poder de los guardianes digitales. Seguimiento constante, creación de perfiles intrusivos, publicidad manipuladora o prácticas de moderación de contenido arbitrario: nada de esto es nuevo, pero ahora realmente no tenemos a dónde ir para escapar de ellos. El precio que pagamos, como individuos y como sociedades, por el acceso a las plataformas en línea ha resultado ser injusto. La economía de la explotación de la atención está indisolublemente conectada con graves daños sociales, incluida la erosión del periodismo de calidad, las burbujas de filtro y las adicciones digitales. Simplemente poner más responsabilidad en aquellos que dirigen los imperios de Google, Amazon, Facebook y Apple (GAFA) no resolverá nuestros problemas. https://www.adalovelaceinstitute.org/reinventing-online-platforms-is-the-new-eu-regulatory-package-enough/

Datos democráticos: una teoría relacional para la gobernanza de datos

 La ley de gobernanza de datos, la ley que regula cómo se recopilan, procesan y utilizan los datos sobre las personas, es objeto de teorizaciones animadas. Las preocupaciones sobre la datificación (la transformación de la información o el conocimiento sobre las personas en una mercancía) y sus efectos personales y sociales dañinos han producido una abundancia de propuestas de reforma. Diferentes teorías promueven diferentes intereses legales en la información, lo que resulta en varios reclamos y remedios individualistas. Algunos buscan reafirmar el control individual de los interesados ​​sobre los términos de su dataficación, mientras que otros apuntan a maximizar la ganancia financiera del interesado. Pero estas propuestas comparten un defecto conceptual común: pasan por alto la importancia central de las relaciones a nivel de población entre individuos sobre cómo la recopilación de datos produce tanto valor social como daño social. Las prácticas de recopilación de datos de las empres

La policía de Mississippi pondrá a prueba un programa para transmitir en vivo las cámaras Amazon Ring

 Mientras que las personas compran cámaras Ring u otras cámaras de seguridad disponibles comercialmente y las colocan en la puerta de su casa para mantener sus paquetes seguros, la policía puede usarlas para construir redes de cámaras de circuito cerrado de televisión (CCTV) integrales que cubran vecindarios enteros. Esto tiene dos propósitos policiales. Primero, permite a los departamentos de policía evitar el costo de comprar equipos de vigilancia y poner esa carga sobre los consumidores al convencerlos de que necesitan cámaras para mantener su propiedad segura. En segundo lugar, evade la reacción natural de miedo y desconfianza que muchas personas tendrían si supieran que la policía estaba colocando docenas de cámaras en su cuadra, una para cada casa. https://foundation.mozilla.org/en/blog/police-mississippi-pilot-program-live-stream-amazon-ring-cameras/

En Privacy is Power, Carissa Véliz advierte sobre una distopía inminente basada en datos

 Reseña del libro Privacy is Power de Carissa Véliz. https://www.scmp.com/magazines/post-magazine/books/article/3110319/privacy-power-clarissa-veliz-warns-impending-data

Del qué al cómo: una revisión inicial de las herramientas, los métodos y la investigación de ética de la IA disponibles al público para traducir los principios en prácticas

 El debate sobre las implicaciones éticas de la inteligencia artificial data de la década de 1960 (Samuel in Science, 132 (3429): 741–742, 1960. https://doi.org/10.1126/science.132.3429.741; Wiener in Cybernetics: o control y comunicación en el animal y la máquina, MIT Press, Nueva York, 1961). Sin embargo, en los últimos años, la IA simbólica se ha complementado y, a veces, reemplazado por técnicas de redes neuronales (profundas) y aprendizaje automático (ML). Esto ha aumentado enormemente su potencial utilidad e impacto en la sociedad, con la consecuencia de que el debate ético se ha generalizado. Dicho debate se ha centrado principalmente en los principios, el "qué" de la ética de la IA (beneficencia, no maleficencia, autonomía, justicia y explicabilidad), más que en las prácticas, el "cómo". La conciencia de los problemas potenciales está aumentando rápidamente. tasa, pero la capacidad de la comunidad de IA para tomar medidas para mitigar los riesgos asociados a

La teoría de la primera enmienda de Clearview AI amenaza la privacidad, y también la libertad de expresión

Lo que podría ser uno de los casos más importantes de la Primera Enmienda de la era digital está pendiente ante un tribunal de Illinois y probablemente se discutirá antes de fin de año. El caso se refiere a Clearview AI, la empresa de tecnología que extrajo subrepticiamente 3000 millones de imágenes de Internet para alimentar una aplicación de reconocimiento facial que vendió a las fuerzas del orden. Ahora enfrentando múltiples demandas basadas en una ley de privacidad de Illinois, la compañía ha contratado a Floyd Abrams, el destacado litigante de la Primera Enmienda, para argumentar que sus actividades comerciales están protegidas constitucionalmente. Aterrizar Abrams fue un golpe para Clearview, pero no está claro si alguien más debería celebrarlo. Una Primera Enmienda que protegiera a Clearview y otras compañías de tecnología de una regulación de privacidad razonable sería mala para la privacidad, obviamente, pero también sería mala para la libertad de expresión. https://slate.com/

La forma en que entrenamos a la IA es fundamentalmente defectuosa

 No es ningún secreto que los modelos de aprendizaje automático ajustados y ajustados para un rendimiento casi perfecto en el laboratorio a menudo fallan en entornos reales. Esto generalmente se atribuye a una falta de coincidencia entre los datos en los que se entrenó y probó la IA y los datos que encuentra en el mundo, un problema conocido como cambio de datos. Por ejemplo, una IA entrenada para detectar signos de enfermedad en imágenes médicas de alta calidad tendrá problemas con imágenes borrosas o recortadas capturadas con una cámara barata en una clínica concurrida. Ahora, un grupo de 40 investigadores de siete equipos diferentes en Google ha identificado otra causa importante del fracaso común de los modelos de aprendizaje automático. Llamado "subespecificación", podría ser un problema aún mayor que el cambio de datos. "Estamos pidiendo más a los modelos de aprendizaje automático de lo que podemos garantizar con nuestro enfoque actual", dice Alex D’Amour, qui

Lo que realmente piensan los científicos sobre la ética de la investigación del reconocimiento facial

 A medida que los sistemas de reconocimiento facial se vuelven más comunes en la sociedad, los investigadores y activistas han rechazado su propagación. Les preocupan las inexactitudes de la tecnología y cómo se utiliza, y les preocupa la ética de algunas investigaciones en esta área. Este año, Nature recopiló las opiniones de 480 investigadores de todo el mundo que trabajan en reconocimiento facial, visión por computadora e inteligencia artificial (IA), sobre algunas cuestiones éticas espinosas sobre la investigación del reconocimiento facial. Los resultados de esta encuesta sugieren que algunos científicos están preocupados por la ética del trabajo en este campo, pero otros todavía no ven los estudios académicos como problemáticos. https://www.nature.com/articles/d41586-020-03257-6

El capitalismo de la vigilancia no fue construido solo por empresas poderosas

 Por supuesto, el hecho de que los datos no sean "el nuevo aceite" y el hecho de que las predicciones de las máquinas no sean todopoderosas no significa que sean inofensivas. De hecho, las consecuencias de nuestra dependencia de las predicciones de las máquinas son reales y están bien documentadas. Los graduados de la escuela secundaria finalmente vieron anuladas sus calificaciones proyectadas en la corte, pero innumerables personas que buscan trabajo, prisioneros y trabajadores de conciertos continúan viviendo con las consecuencias adversas de la toma de decisiones basada en predicciones. Como han señalado numerosos estudiosos, el poder de las predicciones mecánicas no radica tanto en su precisión como en su tendencia a hacer que sus predicciones se manifiesten. Las predicciones de las máquinas pueden convertirse en profecías autocumplidas que crean los mismos futuros sobre los que deben informarnos: por ejemplo, tratar a las personas como si pudieran cometer un crimen aumen

Resistiendo el crecimiento del reconocimiento facial

 En septiembre de 2019, el Ada Lovelace Institute, con sede en Londres, un instituto de investigación financiado por organizaciones benéficas que analiza la inteligencia artificial y la sociedad, publicó una encuesta representativa a nivel nacional3 de más de 4.000 opiniones de adultos británicos sobre FRT. Descubrió que la mayoría de las personas apoyaban el reconocimiento facial cuando podían ver un beneficio público, como en investigaciones criminales, para desbloquear teléfonos inteligentes o para verificar pasaportes en aeropuertos. Pero el 29% se sintió incómodo con que la policía usara la tecnología, diciendo que viola la privacidad y normaliza la vigilancia, y que no confían en que la policía la use de manera ética. Casi no hubo apoyo para su uso en escuelas, en el trabajo o en los supermercados. “El público espera que la tecnología de reconocimiento facial en la policía esté acompañada de salvaguardias y vinculada a un beneficio público”, concluyó la encuesta. https://www.natu

La IA ya no tiene un conector

Magnífica publicación sobre la Ética en la IA.  ¿Cuál es el futuro de la IA en los Países Bajos? Esa es una pregunta que es casi imposible de responder. Porque: ¿qué es exactamente la IA, qué escenarios futuros existen y quién determina "lo que queremos" y sobre qué base? La tercera parte de la trilogía STT "el futuro de la IA" se centra en esa tercera cuestión normativa. El objetivo es generar una amplia discusión social sobre este tema, porque la IA nos tocará a todos de una forma u otra: directamente, como usuarios de aplicaciones, pero también indirectamente, cuando otras personas y organizaciones utilicen la IA, por ejemplo, los médicos que dejan escanear se analizan algorítmicamente para poder hacer un diagnóstico. Esto no es ciencia ficción; mucho de eso ya es posible. Incluso hoy en día, el impacto de la IA es significativo y se espera que el impacto solo aumente. Por eso es bueno centrarse explícitamente en las opciones éticas y sociales asociadas. https://

El regulador de datos del Reino Unido toma medidas de cumplimiento para frenar el uso de los datos personales de las personas por parte de los agentes de datos

 En una decisión histórica que arroja luz sobre las fallas generalizadas de protección de datos por parte de toda la industria de corredores de datos, la ICO ha tomado hoy medidas de cumplimiento contra Experian, basadas en parte en una denuncia IP realizada en 2018. https://privacyinternational.org/es/node/4257

Cómo los reguladores pueden acertar con la tecnología de reconocimiento facial

 El 24 de junio, el New York Times informó sobre la espantosa historia del residente de Detroit Robert Julian-Borchak Williams. Williams, que es afroamericano, vive en el rico suburbio de Farmington Hills en Detroit y fue contactado en enero por el Departamento de Policía de Detroit para entregarse. Después de ignorar lo que supuso que era una broma, Williams fue arrestado por dos oficiales de policía frente a su esposa y dos hijas pequeñas cuando llegaba a casa del trabajo. Treinta horas después de ser detenido, Williams fue puesto en libertad bajo fianza después de que quedó claro que la policía había arrestado al hombre equivocado. https://www.brookings.edu/techstream/how-regulators-can-get-facial-recognition-technology-right/

LOS ALGORITMOS SON REGLAMENTOS: LA NECESIDAD DE EXTENDER LAS GARANTÍAS PROPIAS DE LAS NORMAS REGLAMENTARIAS A LOS PROGRAMAS EMPLEADOS POR LA ADMINISTRACIÓN PARA LA ADOPCIÓN DE DECISIONES

 En este trabajo se argumenta que los algoritmos empleados por parte de las Administraciones públicas para la adopción efectiva de decisiones han de ser considerados reglamentos por cumplir una función material estrictamente equivalente a la de las normas jurídicas, al reglar y predeterminar la actuación de los poderes públicos. Adicionalmente se estudia cómo, una vez asumida esta naturaleza jurídica reglamentaria de estas herramientas de programación, se deducen consecuencias jurídicas respecto de cómo han de realizarse los procedimientos de elaboración y aprobación de estos algoritmos, la necesidad de que los mismos estén debidamente publicados como normas jurídicas que son o la exigencia de que existan mecanismos de recurso directo e indirecto frente a los mismos. Todas estas consecuencias, como se expone en el texto, suponen un significativo y muy necesario incremento de las actuales garantías frente al empleo de algoritmos por parte de los poderes públicos. https://www.uv.es/cecon

El estado del juego y Preguntas abiertas para el futuro

 Este capítulo sintetiza amplias tendencias y preguntas abiertas para la regulación de sistemas biométricos. Extraemos conocimientos principalmente de los ensayos de este compendio para extraer lecciones de los enfoques legales existentes en múltiples países y contextos. Más allá del análisis de la situación actual, planteamos preguntas abiertas sobre dónde es necesario revisar o reinventar la regulación. Exploramos la conversación sobre políticas en rápida evolución en torno a nuevos tipos de intervenciones regulatorias, pero también, de manera crucial, los límites de la ley para capturar o resolver inquietudes sobre estas tecnologías. https://ainowinstitute.org/regulatingbiometrics-kak.pdf

Usos maliciosos y abusos de Inteligencia artificial

 La aparición de nuevas tecnologías está dando forma al mundo en una gama cada vez mayor de sectores. Aunque hay muchas formas de definir estas tecnologías y sus distintas funciones, es posible resumirlos brevemente1, 2, 3  La inteligencia artificial, (IA) en particular, es omnipresente en sus aplicaciones y es muy prometedor para abordar una serie de desafíos globales complejos. Al capitalizar las cantidades de datos sin precedentes, la IA ha mostrado potencial de recomendaciones de navegación y contenido para detectar el cáncer con mayor precisión que en humanos radiólogos. La IA es un subcampo de la informática (con muchas relaciones cruzadas con otras disciplinas) dedicada a la teoría y desarrollo de sistemas informáticos que pueden realizar tareas que normalmente requiere inteligencia humana, como percepción visual, reconocimiento de  voz,traducción entre idiomas, toma de decisiones y resolución de problemas. Aprendizaje automático (ML), en sí mismo un subcampo de la IA, consta de

Cuatro razones por las que promocionar la IA es un problema ético

 El verdadero valor de la IA no radica en burlar o reconfigurar a la humanidad. El verdadero valor de la IA radica en aumentar nuestra comprensión de los problemas del mundo real cuya complejidad abruma la mente humana. https://dorotheabaur.medium.com/four-reasons-why-hyping-ai-is-an-ethical-problem-8db47b17bf43

Las cuestiones éticas que acechan a la investigación sobre reconocimiento facial

 En septiembre de 2019, cuatro investigadores escribieron a la editorial Wiley para "pedirle respetuosamente" que retirara de inmediato un artículo científico. El estudio, publicado en 2018, había entrenado algoritmos para distinguir los rostros de los uigures, un grupo étnico minoritario predominantemente musulmán en China, de los de etnia coreana y tibetana1. China ya había sido condenada internacionalmente por su intensa vigilancia y detenciones masivas de uigures en campamentos en la provincia noroccidental de Xinjiang, que según el gobierno son centros de reeducación destinados a sofocar un movimiento terrorista. Según informes de los medios de comunicación, las autoridades de Xinjiang han utilizado cámaras de vigilancia equipadas con software adaptado a los rostros uigures. https://www.nature.com/articles/d41586-020-03187-3

Atención reguladores de la UE: necesitamos algo más que "ética" de la IA para mantenernos a salvo

 Los últimos meses han sido un viaje tumultuoso para aquellos de nosotros preocupados por garantizar la protección de nuestros derechos fundamentales a medida que la UE desarrolla su política de inteligencia artificial (IA). Si bien los vicepresidentes de la Comisión de la UE, Vestager y Jourová, se comprometieron recientemente a combatir "de manera proactiva" la amenaza de los sistemas de IA que refuerzan la discriminación estructural, otros desarrollos han sido menos prometedores. Varios Estados miembros han adoptado una posición firme en contra de la regulación en el debate, y ayer el Parlamento Europeo votó una serie de informes relacionados con la IA, incluido un informe sobre IA y ética, que dejan mucho que desear. Con la Comisión preparándose para proponer una nueva legislación a principios del próximo año, hay mucho en juego. https://www.accessnow.org/eu-regulations-ai-ethics/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Ed

LOS PELIGROS DEL EXCEPCIONALISMO PANDÉMICO

 En respuesta a la pandemia, la mayoría de los estados han promulgado medidas especiales para proteger las economías nacionales y la salud pública. Muchas de estas medidas probablemente violarían las disciplinas de comercio e inversión a menos que califiquen para una de varias excepciones. Este ensayo examina las implicaciones estructurales de las defensas anticipadas generalizadas basadas en la idea de "excepcionalismo". Sostiene que la pandemia revela la debilidad estructural del paradigma de justificación orientado a las excepciones en el derecho económico internacional. https://www.cambridge.org/core/services/aop-cambridge-core/content/view/4F9248F5E672AB275EC78E7B5B0905A9/S0002930020000676a.pdf/perils_of_pandemic_exceptionalism.pdf Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los p

Cuando los robots médicos fallan: principios de negligencia para una era de automatización

 En los últimos años, los investigadores han desarrollado robots médicos y chatbots para monitorear a los ancianos vulnerables y ayudar con algunas tareas básicas. Las aplicaciones de terapia impulsadas por inteligencia artificial ayudan a algunas personas con enfermedades mentales; los sistemas de pedido de medicamentos ayudan a los médicos a evitar interacciones peligrosas entre diferentes recetas; y los dispositivos de asistencia hacen que la cirugía sea más precisa y segura, al menos cuando la tecnología funciona según lo previsto. Y estos son solo algunos ejemplos de cambio tecnológico en la medicina. La adopción gradual de la IA en la medicina también plantea una cuestión de responsabilidad crítica para la profesión médica: ¿quién debería ser responsable cuando estos dispositivos fallan? Acertar con esta pregunta sobre la responsabilidad será de vital importancia no solo para los derechos de los pacientes, sino también para proporcionar los incentivos adecuados para la economía p

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social

  El propósito de este artículo es mostrar algunas de las particularidades, alcances y limitaciones de la privacidad, la confidencialidad y el anonimato en el ámbito de la ética de la investigación en ciencias sociales. El presente artículo está organizado en tres apartados. En primer lugar, se definirán y distinguirán los conceptos de privacidad y confidencialidad y se mostrarán sus características singulares en investigación social. En segundo lugar, se analizarán algunos debates y críticas actuales en torno al anonimato. Finalmente, se examinarán los alcances y limitaciones al resguardo de la información y los desafíos que implican nuevos entornos de investigación social. http://scielo.isciii.es/scielo.php?script=sci_arttext&pid=S1886-58872016000200002 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesar

Cómo la tecnología cambiará la justicia

 Conversación sobre el futuro de la justicia en torno al libro. Tribunales en línea y el futuro de la justicia https://legaltalknetwork.com/podcasts/law-technology-now/2020/01/richard-susskind-how-technology-will-change-justice/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.
Incertidumbre, desconfianza. La incertidumbre es parte de la vida, virus desconfianza  Vacuna triple E Explicabilidad, ser transparente y comprensible, mostrar las posibilidades y los riesgos Ética, hacer las cosas bien, bien común  Ejemplaridad de los políticos  A partir del min 19 https://play.cadenaser.com/audio/1604833987_968925/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Trabajar con los principios de CARE: operacionalizar la gobernanza de datos indígenas

 La soberanía de datos indígenas se está convirtiendo en un tema cada vez más relevante, ya que las oportunidades limitadas para la distribución de beneficios han centrado la atención en la protección de los derechos e intereses indígenas y la participación en la gobernanza de datos. [1] [2] [3] [4] [5] A nivel mundial, hay más de 370 millones de indígenas, que representan a más de 5.000 culturas distintas, en más de 90 países. [6] El enfoque reciente en la soberanía de datos indígenas ha surgido como parte de un intrincado tejido entre el discurso de los derechos de propiedad intelectual y cultural indígena (ICIP) con la ética de la investigación indígena y la Declaración de las Naciones Unidas sobre los Derechos de los Pueblos Indígenas (DNUDPI). [7 ] [8] [9] [10] https://www.adalovelaceinstitute.org/operationalising-indigenous-data-governance/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn)

Consideraciones para la investigación de mensajes cerrados en contextos democráticos

 Las aplicaciones de mensajería cerrada como WhatsApp, Facebook Messenger y WeChat han aumentado en uso en los últimos años y pueden actuar como medios políticos para difundir información. Al estudiar cuestiones relacionadas con las comunicaciones relacionadas con las elecciones, los investigadores se enfrentan a enigmas éticos debido a la naturaleza de privacidad encriptada de los chats grupales. Sehat y Kaminski presentan una revisión de cuatro modelos utilizados por los investigadores: contribución voluntaria, asociaciones focalizadas, entrada con identificación y entrada sin identificación. Concluyen planteando y analizando las complejidades de seis cuestiones éticas que los investigadores consideran implícita o explícitamente antes de la recopilación y el análisis de datos de investigación de mensajes cerrados. Estas preguntas abordan cuestiones de chats públicos frente a privados, propiedad de los datos, consentimiento informado, intercambio de información y conflictos de interes

FIRST DRAFT OF THE RECOMMENDATION ON THE ETHICS OF ARTIFICIAL INTELLIGENCE

 Esta Recomendación aborda cuestiones éticas relacionadas con la IA. Aborda la ética de la IA como una reflexión normativa sistemática, basada en un marco holístico y evolutivo de valores, principios y acciones interdependientes que pueden guiar a las sociedades a abordar de manera responsable los impactos conocidos y desconocidos de las tecnologías de IA en los seres humanos, las sociedades y el medio ambiente ecosistemas, y les ofrece una base para aceptar o rechazar las tecnologías de IA. En lugar de equiparar la ética a la ley, los derechos humanos o un complemento normativo de las tecnologías, considera la ética como una base dinámica para la evaluación normativa y la orientación de las tecnologías de IA, refiriéndose a la dignidad humana, el bienestar y la prevención de daños como una brújula y arraigada en la ética de la ciencia y la tecnología. https://unesdoc.unesco.org/ark:/48223/pf0000373434/PDF/373434eng.pdf.multi Editado por Aniceto Pérez y Madrid, Especialista en Ética de

LA PARADOJA DE LA PRIVACIDAD POSTUMNA: PREFERENCIAS DE PRIVACIDAD Y COMPORTAMIENTO CON RESPECTO A LOS RESTOS DIGITALES

Los académicos han observado una brecha entre las preferencias declaradas de los usuarios para proteger su privacidad y su comportamiento real. Esta es la paradoja de la privacidad. Esta artículo cuestiona la persistencia de la paradoja de la privacidad después de la muerte. Una encuesta de una muestra representativa de usuarios de Internet israelíes preguntó sobre sus percepciones, preferencias y acciones tomadas por los usuarios con respecto a sus restos digitales. los El análisis arrojó tres grupos distintos: (1) usuarios interesados ​​en preservar privacidad póstumamente, pero no actúe en consecuencia; para estos usuarios, la privacidad la paradoja persiste póstumamente; (2) usuarios que hacen coincidir su comportamiento con su preferencias; para estos usuarios, la paradoja de la privacidad está resuelta; (3) usuarios interesado en compartir sus datos personales póstumamente, pero no hace el disposiciones apropiadas. Este escenario es la paradoja de la privacidad invertida. Esta La

¿Qué habría que tener en cuenta si se va a regular la inteligencia artificial?

  Como hemos comentado,   los riesgos no están en la tecnología, sino en cómo se usa . Por ello, establecer requisitos regulatorios adicionales sobre la IA -especialmente en aplicaciones sin apenas impacto en la vida de las personas- aumentaría el coste de implantación de estas nuevas tecnologías, desincentivaría su adopción en la Unión Europea y reduciría la competitividad de los países de la UE respecto a los líderes en este campo, Estados Unidos y China. Para evitar esto, cualquier intervención normativa debería: ser  neutra  respecto de la tecnología y enfocarse en las aplicaciones, intervenir en áreas donde la regulación actual  es insuficiente o no existe ; y dar prioridad al  desarrollo de directrices y estándares  – en colaboración con el sector privado, en la medida de lo posible – y a clarificar las expectativas de las autoridades que faciliten el cumplimiento de la legislación vigente. No obstante, si las autoridades europeas apuestan por el desarrollo de una regulación de l

¿Puedo evitar que las empresas de Big Data obtengan mi información personal?

 Voy a responder a esta aquí mismo en la introducción: no, no puedes. https://gizmodo.com/can-i-stop-big-data-companies-from-getting-my-personal-1845582028 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

EL PROBLEMA DEL TECNOLUCIONISMO DE LA FILANTROPÍA

 Critica el apoyo al tecnosolucionismo de las instituciones filantrópicas americanas porque son una amenaza a la democracia. Buena crítica al tecnosolucionismo. https://knightfoundation.org/philanthropys-techno-solutionism-problem/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Reflexiones sobre IA

 Una de las cuestiones más críticas es la controvertida y muy relación crítica entre el tema de la confianza y la IA https://ieai.mcts.tum.de/wp-content/uploads/2020/11/Reflections-on-AI-Ethics_MarisaTschopp_Final1.pdf Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.  

Salud global justa: integración de los derechos humanos y los bienes comunes

 Charla de John Tasioulas sobre la Salud como derechohumanao o bien común en el marco del COVID-19 https://www.youtube.com/watch?v=4ElDxHQmdOA&app=desktop Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.  

Cómo asegurarse de que su proyecto de "IA para el bien" realmente funcione bien

 La inteligencia artificial ha estado al frente y al centro en los últimos meses. La pandemia global ha empujado a gobiernos y empresas privadas de todo el mundo a proponer soluciones de inteligencia artificial para todo, desde analizar los sonidos de la tos hasta desplegar robots desinfectantes en hospitales. Estos esfuerzos forman parte de una tendencia más amplia que ha ido cobrando impulso: el despliegue de proyectos por parte de empresas, gobiernos, universidades e institutos de investigación con el objetivo de utilizar la IA para el bien social. El objetivo de la mayoría de estos programas es implementar tecnologías de IA de vanguardia para resolver problemas críticos como la pobreza, el hambre, la delincuencia y el cambio climático, bajo el paraguas de “IA para el bien”. Pero, ¿qué hace que un proyecto de IA sea bueno? ¿Es la “bondad” del dominio de aplicación, ya sea salud, educación o medio ambiente? ¿Es el problema que se está resolviendo (por ejemplo, predecir desastres natu

GPT-3: su naturaleza, alcance, límites y consecuencias

 En este comentario, discutimos la naturaleza de las preguntas reversibles e irreversibles, es decir, preguntas que pueden permitirle a uno identificar la naturaleza de la fuente de sus respuestas. Luego presentamos GPT-3, un modelo de lenguaje autorregresivo de tercera generación que usa el aprendizaje profundo para producir textos similares a los humanos, y usamos la distinción anterior para analizarlo. Ampliamos el análisis para presentar tres pruebas basadas en cuestiones matemáticas, semánticas (es decir, la prueba de Turing) y éticas y mostramos que GPT-3 no está diseñado para aprobar ninguna de ellas. Este es un recordatorio de que GPT-3 no hace lo que se supone que no debe hacer, y que cualquier interpretación de GPT-3 como el comienzo del surgimiento de una forma general de inteligencia artificial es meramente ciencia ficción desinformada. Concluimos señalando algunas de las consecuencias significativas de la industrialización de la producción automática y barata de buenos art

Por qué las redes sociales no pueden seguir moderando el contenido en la sombra

 En 2016, podía contar por un lado los tipos de intervenciones que las empresas de tecnología estaban dispuestas a utilizar para librar a sus plataformas de información errónea, discurso de odio y acoso. A lo largo de los años, los mecanismos toscos como el bloqueo de contenido y la prohibición de cuentas se han transformado en un conjunto de herramientas más complejo, que incluyen temas de cuarentena, eliminación de publicaciones de la búsqueda, recomendaciones de exclusión y clasificación descendente de publicaciones en prioridad. Y, sin embargo, incluso con más opciones a su disposición, la desinformación sigue siendo un problema grave. Hubo mucha cobertura sobre la desinformación el día de las elecciones; mi colega Emily Drefyuss descubrió, por ejemplo, que cuando Twitter trató de lidiar con el contenido usando el hashtag #BidenCrimeFamily, con tácticas que incluían "desindexación" al bloquear los resultados de búsqueda, los usuarios incluido Donald Trump adaptado utiliza

Hacia los colectivos de datos de los trabajadores

 La mercantilización de los trabajadores como consecuencia del aumento de la supervisión y la vigilancia digitales está muy avanzada. A través del análisis predictivo avanzado, el trabajo y los trabajadores de todo el mundo se están volviendo a datos en detrimento de los derechos fundamentales, humanos y de los trabajadores. Este ensayo sostiene que los sindicatos deben ampliar sus servicios para incluir el control colectivo sobre los trabajadores y los datos laborales mediante la formación de lo que yo llamo Colectivos de Datos de los Trabajadores. Sin embargo, para hacerlo, los sindicatos deben abordar urgentemente los vacíos regulatorios y negociar para mejorar mucho los derechos de los trabajadores a los datos en las empresas y organizaciones. Sin estos dos objetivos para la colectivización de datos y un espíritu digital alternativo respaldado por nuevas instituciones reguladoras, sostengo, el poder de los sindicatos y los trabajadores se reducirá significativamente, lo que conduci

Europa lidera el camino en las reglas establecidas para la inteligencia artificial

 Estas se encuentran entre las primeras propuestas legislativas detalladas que se publicarán internacionalmente, por lo que son una lectura interesante para las partes interesadas de todo el mundo. Las recomendaciones cubren tres áreas: un marco ético para la IA responsabilidad por la IA que causa daños derecho de propiedad intelectual https://medium.com/the-innovation/europe-leads-the-way-on-set-rules-for-artificial-intelligence-7b4d734a8595 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Amenazas para la salud en la infosfera

 Desde 2016, las empresas de redes sociales y los proveedores de noticias se han visto presionados para abordar la propagación de la desinformación y la desinformación políticas (MDI) en línea. A pesar de la evidencia de que el MDI de salud en línea (en la web, en las redes sociales y dentro de las aplicaciones móviles) también tiene efectos negativos en el mundo real, ni los proveedores de servicios en línea ni los organismos de salud pública patrocinados por el estado han tomado medidas comparables. Actualmente existen innumerables comunidades en línea que promueven comportamientos nocivos. Las aplicaciones no documentadas y no reguladas están disponibles gratuitamente para su descarga. Y la promoción imprudente de las dietas de moda y las tendencias de bienestar no probadas por parte de las celebridades a través de las redes sociales está provocando la propagación de varios comportamientos peligrosos. https://www.publichealthpost.org/viewpoints/health-threats-in-the-infosphere/ Edit

Cuatro principios de inteligencia artificial explicable

 El Instituto Nacional de Estándares y Tecnología (“NIST”) ha publicado el primer borrador de los Cuatro Principios de la Inteligencia Artificial Explicable (NISTIR 8312), un libro blanco que busca definir los principios que capturan las propiedades fundamentales de los sistemas de IA explicables. El Copresidente de la Iniciativa AI Lee Tiedrich, Sam Choi y James Yoon discuten el borrador, junto con otros desarrollos legislativos relacionados con NIST, en The Journal of Robotics, Artificial Intelligence and Law. Para obtener más información, visite nuestro kit de herramientas de inteligencia artificial. https://www.insidetechmedia.com/2020/11/04/nist-solicits-comments-on-four-principles-of-explainable-artificial-intelligence-and-other-developments/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los

Establecer sistemas, poderes y capacidades para analizar los algoritmos y su impacto

 La sesión informativa está dirigida principalmente a los responsables de la formulación de políticas y presenta los conocimientos de un taller de expertos junto con nuestras recomendaciones correspondientes, con un enfoque en el Reino Unido y la Unión Europea. También debería ser útil para los reguladores y las empresas de tecnología que estén pensando en métodos, habilidades y capacidad para inspeccionar sistemas algorítmicos. https://www.adalovelaceinstitute.org/algorithms-in-social-media-realistic-routes-to-regulatory-inspection/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Cinco cuestiones críticas para explicar la IA Explicable

 Explicabilidad es algo muy amplio. El artículo muestra 5 preguntas a hacerse para afrontar la explicabilidad: ¿A quién hay que explicar? diferentes interesados ¿Qué explicar? Lista de objetivos y razones para explicar ?Cómo explicar? Diferentes métodos de explicación ¿Cuando explicar? Antes o después del desarrollo ¿Cuales son las técnicas de explicación? Taxonomía de diferentes técnicas https://towardsdatascience.com/five-critical-questions-to-explain-explainable-ai-e0c40bdca368 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

En 2020, Nadie sabes que eres un Chatbot

 Describe someramente lo que es un chatbot, tipos de chatbots y la California Act que obliga a los chatbots a identificarse. https://montrealethics.ai/in-2020-nobody-knows-youre-a-chatbot/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Preparándose para la Era de los Deepfakes y la Desinformación

 Describe los problemas que introduce la difusión de deepfakes y propone varias medidas de firma criptográfica en origen o registro de grabaciones de vídeo. Creo que la fe en la seguridad criptográfica es algo excesiva, pues eventualmente será crackeada. https://hai.stanford.edu/sites/default/files/2020-11/HAI_Deepfakes_PolicyBrief_Nov20.pdf?utm_source=twitter&utm_medium=social&utm_content=Stanford%20HAI_twitter_StanfordHAI_202011031015_sf131682962&utm_campaign=&sf131682962=1 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

¿Quién soy yo para decidir cuándo los algoritmos deben tomar decisiones importantes?

 Las personas que asumen los riesgos de los sistemas algorítmicos deberían poder determinar si se utilizan y cómo se utilizan. Workers for Shipt, la plataforma de entrega de comestibles propiedad de Target, están protestando por la reciente implementación de la empresa de un nuevo algoritmo que dicta los horarios y salarios de los trabajadores. No está claro cómo el algoritmo toma estas decisiones: Shipt ha proporcionado pocos detalles a sus más de 200.000 empleados y la empresa se niega a compartir nada con el público, alegando que el sistema es "propietario". Pero incluso sin acceso al funcionamiento interno del algoritmo, los trabajadores sienten sus impactos. Desde que el sistema entró en funcionamiento en septiembre, afirman que sus salarios han bajado y que la programación es más complicada e impredecible, lo que arroja sus vidas a la precariedad y la incertidumbre financiera. Como dijo el trabajador de Shipt, Willy Solis: "Este es mi negocio y necesito poder tomar

Los algoritmos están en todas partes. ¿Cómo luchamos contra su sesgo?

 La auditoría algorítmica es solo una herramienta en este impulso social más amplio para garantizar que las tecnologías emergentes con las que interactuamos sean seguras, justas y se utilicen de manera responsable. En algunos casos, ninguna cantidad de auditoría puede compensar los peligros. https://www.morningbrew.com/emerging-tech/stories/2020/10/30/algorithms-everywhere-fighting-bias?__cf_chl_jschl_tk__=3e36b0e2c8883cc0a2e5f084df19ae87536760a6-1604317763-0-AaYTnaAygYLlD6QctlVubYl4IB5eD3eq1KWwILmrqvrOI3dpM65OlJlk9yA0l1lTRVmUf021tSVgguMJt5CvPB28q3BMfNe3z9k1RvuKGEPLk9482AS2tN7b6r6t6_IwLleDJb_UL9RMMavFFK2TtEokCxewgwNIcY_wOAQvVVazly8jRE-KdfoZYkEds2bRmJajXl5RBu26GTg_eZ5wOHk4uw2eEgbGbOGafaZ958KCbE8aRx6C3D4GKiH91OW1h7V5lT0-K5Z9_eUOpCBx_ArQ5NXm0BifZx0H_V3Etf6fjzAMH1firUjEVEuTowMW6YuxmhaEVxvi0_UxvivGINok9vI-jtnglDpHooC3HKBolc9gQVyPJ3TuS0wN_jIxwhUw_wwkOmipjB3iw68MJslL7xWnXrwZe9x3n_HkDHCn Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actuali