Entradas

Mostrando entradas de diciembre, 2020

Inteligencia artificial y sus límites La comprensión de las limitaciones de la IA está comenzando a asimilarse

 Los mismos consultores que predicen que la inteligencia artificial tendrá un impacto que alterará el mundo también informan que los gerentes reales en empresas reales encuentran la inteligencia artificial difícil de implementar y que el entusiasmo por ella se está enfriando. Svetlana Sicular de Gartner, una firma de investigación, dice que 2020 podría ser el año en que la IA caiga en la pendiente descendente del bien publicitado "ciclo de publicidad" de su firma. Los inversores están empezando a despertar al subirse al carro: una encuesta de empresas emergentes de inteligencia artificial europea realizada por MMC, un fondo de capital de riesgo, descubrió que el 40% no parecía estar usando ninguna inteligencia artificial. "Creo que definitivamente hay un fuerte elemento de 'marketing de inversores'", dice un analista con delicadeza. Este Technology Quarterly investigará por qué se estanca el entusiasmo. Argumentará que aunque las técnicas modernas de IA son

Sesgos, racismo y mentiras: afrontar las consecuencias no deseadas de la IA

 La frase "inteligencia artificial" puede evocar imágenes de máquinas que son capaces de pensar y actuar como los humanos, independientemente de cualquier supervisión de personas reales, de carne y hueso. Las versiones cinematográficas de la IA tienden a presentar máquinas superinteligentes que intentan derrocar a la humanidad y conquistar el mundo. La realidad es más prosaica y tiende a describir software que puede resolver problemas, encontrar patrones y, en cierta medida, "aprender". Esto es particularmente útil cuando es necesario clasificar y comprender grandes cantidades de datos, y la IA ya se está utilizando en una serie de escenarios, particularmente en el sector privado. Los ejemplos incluyen chatbots capaces de realizar correspondencia en línea; sitios de compras en línea que aprenden a predecir lo que podría querer comprar; y periodistas de IA que escriben artículos deportivos y comerciales (esta historia, les puedo asegurar, fue escrita por un humano).

El mercado exige IA ética

 La inteligencia artificial está preparada para alterar todos los principales mercados y sistemas sociales. Ya sea para bien o para mal, no es la cuestión. En cambio, las preguntas son de quién será la vida mejor y peor, de qué manera y bajo qué reglas o condiciones. En las condiciones adecuadas, la IA puede ser muy beneficiosa y una fuerza positiva. Sin embargo, en condiciones inadecuadas, la IA puede provocar una discriminación generalizada y reforzar las disparidades socioeconómicas existentes. El uso de la IA en la atención médica ofrece un ejemplo de estas tensiones: un algoritmo diseñado para orientar las intervenciones médicas a los pacientes más enfermos tuvo el efecto involuntario de canalizar recursos a una población blanca más saludable, en detrimento de los pacientes negros más enfermos. El uso de la IA también puede provocar invasiones de la privacidad y concentraciones peligrosas de poder. La tecnología de reconocimiento facial es un buen ejemplo. Puede usarse para encont

Silicon Valley está matando la innovación

  Cuando una empresa crece, debe hacerlo sujeta a ciertos estándares contables. Para ello, compañías de todo tamaño y pelaje se someten a   auditorías especializadas   que abundan en el estado de sus ingresos y gastos. Ahora que ya termina 2020, Europa ya tiene sobre la mesa  una propuesta  para regular las tecnológicas. Este es un extremo que incluso el anterior CEO del banco HSBC defendió en una columna  publicada en el  Financial Times .  "El riesgo para los clientes en caso de que las empresas tecnológicas den malos datos es ahora  tan grave como lo fue en el sector financiero ", planteó John Flint, preocupado por el impacto de estas firmas en la sociedad. De la misma manera que las empresas someten sus cuentas a auditorías, una firma española cree que las tecnológicas deberían hacer lo propio permitiendo que se auditen sus algoritmos. "Vivimos en un mundo racista y machista. Hay muchas dinámicas de exclusión sobre grandes colectivos; desde a las mujeres a las person

En cuestiones tecnológicas, la ética lo es todo y debe prevalecer en todo

  Gabriela Ramos es la responsable de sacar adelante la Declaración Universal de la Inteligencia Artificial que prepara la Unesco. Su objetivo: que nadie quede desamparado ante los posibles efectos negativos de la tecnología. https://retina.elpais.com/retina/2020/12/22/tendencias/1608655621_852613.html

Un breve análisis de algunas relaciones entre tecnología y lenguaje

Este ensayo para el número inaugural de Tecnología y lenguaje se basa en discusiones sostenidas sobre la relación entre la (filosofía de) la tecnología y la (filosofía del) lenguaje, por ejemplo, en la sugerencia de que hay "juegos de tecnología" en analogía con los "juegos de lenguaje". “Como formas de vida. A la luz de los desarrollos tecnológicos recientes, este ensayo da un paso más al distinguir tres tipos de interacción entre el lenguaje y la tecnología, ya que se considera a la tecnología como autor del lenguaje, usuario del lenguaje y modelador de una forma de vida. Esto refleja lo que la tecnología en sí es y hace. La tecnología está profundamente integrada y entretejida con nuestro mundo humano y nuestro pensamiento humano, que siempre es también un mundo impregnado y habilitado por el lenguaje.  https://soctech.spbstu.ru/userfiles/files/articles/2020/1/22-27.pdf

Nueva York prohíbe la tecnología de reconocimiento facial en las escuelas

Las escuelas públicas y privadas del estado de Nueva York no pueden usar sistemas de reconocimiento facial en sus instalaciones durante al menos un año y medio, ya que el gobernador Andrew Cuomo firmó una legislación que prohíbe su uso. La legislación impone una moratoria a las escuelas que compren y usen tecnología de identificación biométrica hasta al menos el 1 de julio de 2022 o hasta que se complete un estudio que documente si el uso de la tecnología es apropiado en las escuelas. El estudio abordará consideraciones específicas descritas en la legislación, incluido el impacto potencial de la tecnología en las libertades civiles y la privacidad de los estudiantes y cómo se utilizarían los datos recopilados, según un comunicado de prensa. La Oficina de Tecnología de la Información del estado trabajará con el Departamento de Educación del Estado y buscará comentarios de los maestros y padres, así como de expertos en seguridad escolar, seguridad, datos y asuntos de privacidad de los es

El trabajador descuidado

 Sin embargo, en muchas discusiones, foros, debates y / o paneles del futuro del trabajo, los trabajadores no son invitados de manera irónica y preocupante a expresar sus pensamientos. Esto es especialmente evidente cuando los eventos están orientados a la tecnología. No importa si el tema es la ética de la inteligencia artificial, la gobernanza de datos o incluso la automatización de trabajos, una y otra vez los trabajadores y / o sus representantes (generalmente sindicatos) no se ven por ninguna parte. Hay representantes de la industria, expertos también, organizaciones de consumidores y tal vez incluso funcionarios gubernamentales, pero no trabajadores. Esto es inaceptable y debe remediarse. Aquí hay una buena historia para ejemplificar por qué. Yo era un representante sindical oficial en el grupo de expertos de la OCDE que tenía la tarea de redactar los Principios de AI de la OCDE. Fueron adoptados más o menos tal como los redactó el Consejo de la OCDE en mayo de 2019. Se me pidió

Una encuesta de investigación de IA encuentra que el aprendizaje automático necesita un cambio cultural

 La escala de conjuntos de datos masivos dificulta el escrutinio a fondo de su contenido. Esto conduce a ejemplos repetidos de sesgo algorítmico que arrojan resultados obscenamente sesgados sobre musulmanes, personas queer o que no se ajustan a una identidad de género esperada, personas discapacitadas, mujeres y personas negras, entre otros datos demográficos. https://venturebeat.com/2020/12/26/ai-research-survey-finds-machine-learning-needs-a-culture-change/

El año en que los algoritmos escaparon de la cuarentena: una revisión de 2020

Reacción La aceleración de la automatización de la sociedad no fue sin oposición. En agosto, estudiantes británicos salieron a las calles coreando que el algoritmo que asignaba automáticamente sus calificaciones no era legítimo (usaron otra palabra). Como resultado, el gobierno británico retrocedió y mantuvo las calificaciones que habían dado los maestros. Los reguladores y los tribunales de toda la Unión Europea tomaron medidas drásticas contra algunos experimentos de automatización. Las cámaras que detectaban a personas que no llevaban máscaras faciales en Francia se desactivaron después de que la autoridad de protección de datos del país las declarara ilegales. En los Países Bajos, un tribunal falló en contra de SyRI, un sistema que intentó detectar automáticamente a los defraudadores en los servicios de asistencia social, calificándolo de desproporcionado. En Austria, se suspendió un algoritmo que intentaba clasificar a las personas desempleadas en función de su "empleabilidad

entrevista con Karen Gregory sobre el futuro del trabajo post-covid

 Debido a esta intensificación y "extensificación" del trabajo, se siente más agotador, más riesgoso, más precario tanto para los trabajadores clave como para los que trabajan de forma remota. Me preocupan las personas que son padres y temo que tengamos una crisis de salud mental y bienestar en nuestras manos. Trabajar desde casa es realmente trabajar continuamente, hay muy poca distinción entre el día y el horario laboral. El trabajo debe realizarse junto con el trabajo básico de la vida, el trabajo doméstico que nunca termina ... Ninguno de nuestros sistemas sociales está configurado para la integración del trabajo doméstico y el trabajo con W mayúscula, y no pueden brindar el apoyo que los trabajadores necesitan ahora mismo. Sin poder enviar a los niños a la escuela o tener apoyo en la casa, la gente se ve atrapada en una situación insostenible y sin precedentes. https://sciencemediahub.eu/2020/12/23/an-experts-opinion-an-interview-with-karen-gregory-on-the-future-of-work-

La geopolítica de la inteligencia artificial

 A medida que las tecnologías de inteligencia artificial se vuelven más poderosas y están profundamente integradas en los sistemas humanos, los países de todo el mundo luchan por comprender los beneficios y riesgos que pueden representar para la seguridad nacional, la prosperidad y la estabilidad política. Estos esfuerzos todavía son un trabajo en progreso. Australia está desarrollando un plan de acción de inteligencia artificial para todo el gobierno, dirigido por el Departamento de Industria, Ciencia, Energía y Recursos. El departamento publicó un documento de discusión este año y finalizó su convocatoria de presentaciones en noviembre. De acuerdo con el informe del departamento, el documento se concentra en el potencial económico de la IA, al tiempo que reconoce la necesidad de un régimen de IA "responsable" centrado en el ser humano. Eso refleja un impulso internacional para conceptualizar la IA en términos de seguridad humana digital y derechos humanos. https://www.aspis

Dozens sue Amazon's Ring after camera hack leads to threats and racial slurs

Decenas de personas que dicen haber sido objeto de amenazas de muerte, insultos raciales y chantaje después de que sus cámaras inteligentes Ring en el hogar fueran pirateadas están demandando a la empresa por invasiones “horribles” a la privacidad. Una nueva demanda colectiva, que combina varios casos presentados en los últimos años, alega que las laxas medidas de seguridad en Ring, que es propiedad de Amazon, permitieron a los piratas informáticos hacerse cargo de sus dispositivos. Ring proporciona seguridad en el hogar en forma de cámaras inteligentes que a menudo se instalan en los timbres o dentro de las casas de las personas. La demanda contra Ring se basa en casos anteriores, uniendo las quejas presentadas por más de 30 personas en 15 familias que dicen que sus dispositivos fueron pirateados y utilizados para acosarlos. En respuesta a estos ataques, Ring "culpó a las víctimas y ofreció respuestas inadecuadas y explicaciones falsas", alega la demanda. Los demandantes tam

¿Será 2021 el año en que repensamos la privacidad?

La primavera pasada, cuando la pandemia impidió que los estudiantes en Gran Bretaña tomaran sus exámenes finales, se implementó un algoritmo para estimar cuáles habrían sido sus calificaciones finales y, por lo tanto, deberían ser. Desafortunadamente, el algoritmo arrojó calificaciones más altas para los estudiantes de escuelas privadas y calificaciones más bajas para los alumnos de escuelas estatales. Este lamentable resultado puso de relieve una calidad inherente de los datos triturados por la tecnología: la posibilidad, algunos argumentan la tendencia, de que el ejercicio aumente la desigualdad racial y económica existente. https://aipolicylabs.org/?p=3651  

GPT-3: su naturaleza, alcance, límites y consecuencias

 En este comentario, discutimos la naturaleza de las preguntas reversibles e irreversibles, es decir, preguntas que pueden permitirle a uno identificar la naturaleza de la fuente de sus respuestas. Luego presentamos GPT-3, un modelo de lenguaje autorregresivo de tercera generación que utiliza el aprendizaje profundo para producir textos similares a los humanos, y usamos la distinción anterior para analizarlo. Ampliamos el análisis para presentar tres pruebas basadas en preguntas matemáticas, semánticas (es decir, la prueba de Turing) y éticas y mostramos que GPT-3 no está diseñado para aprobar ninguna de ellas. Este es un recordatorio de que GPT-3 no hace lo que se supone que no debe hacer, y que cualquier interpretación de GPT-3 como el comienzo del surgimiento de una forma general de inteligencia artificial es meramente ciencia ficción desinformada. Concluimos señalando algunas de las consecuencias significativas de la industrialización de la producción automática y barata de buenos

Los pasaportes de vacunas podrían erosionar aún más la confianza

 Los expertos debaten los pros y los contras de los pasaportes de la vacuna covid-19 u otros tipos de certificación mientras intentan comenzar a reabrir los espacios públicos. La idea parece simple a primera vista: aquellos que puedan demostrar que han sido vacunados contra el covid-19 podrían ir a lugares y hacer cosas que las personas no vacunadas no harían. Existe evidencia preliminar de que las vacunas autorizadas por la Administración de Alimentos y Medicamentos para uso de emergencia son "altamente efectivas". Las empresas de tecnología y salud están presentando propuestas que utilizan la vacunación como un requisito previo para participar en diversas actividades públicas, pero el concepto plantea una serie de preguntas sobre la salud comunitaria, la equidad y cuánto sabemos realmente sobre la inmunidad covid-19. https://www.technologyreview.com/2020/12/22/1015451/vaccine-passports-nita-farahany-trust/

Google les dijo a sus científicos que 'den un tono positivo' en la investigación de IA

 Este año, Google de Alphabet Inc tomó medidas para reforzar el control sobre los artículos de sus científicos al lanzar una revisión de "temas sensibles", y en al menos tres casos solicitó a los autores que se abstuvieran de proyectar su tecnología en una luz negativa, según comunicaciones internas y entrevistas con los investigadores involucrados. en el trabajo. El nuevo procedimiento de revisión de Google solicita a los investigadores que consulten con los equipos legales, de políticas y de relaciones públicas antes de abordar temas como el análisis de rostros y sentimientos y las categorizaciones de raza, género o afiliación política, según las páginas web internas que explican la política. “Los avances en tecnología y la creciente complejidad de nuestro entorno externo están conduciendo cada vez más a situaciones en las que proyectos aparentemente inofensivos plantean problemas éticos, de reputación, regulatorios o legales”, decía una de las páginas para el personal de i

Los valores subyacentes de Investigación de aprendizaje automático

 La investigación del aprendizaje automático está creciendo rápidamente y los sistemas están cambiando las prácticas anteriores de corporaciones, gobiernos, comunidades, individuos y entornos. En este contexto, los valores de la investigación de ML han tenido una influencia enorme. Los investigadores suelen argumentar que el AA es una herramienta apolítica y neutral en cuanto a valores, que se centra en las consecuencias positivas o enfatiza los valores en las declaraciones de ética de la IA. Para descubrir los valores subyacentes del campo, llevamos a cabo una anotación detallada de docenas de artículos de ML muy influyentes publicados en conferencias destacadas. Presentamos un análisis cuantitativo y una discusión cualitativa de las justificaciones declaradas de los artículos, valores y consecuencias negativas. Encontramos que la mayoría de estos artículos no mencionan ni una necesidad social ni consecuencias negativas. En cambio, estos artículos se evalúan a sí mismos de acuerdo con

No subestimes los cheapfakes

 Excepto que la imagen es falsa. Tras un examen más detenido, ni siquiera es muy convincente. Podría haber sido elaborado por un novato en Photoshop. Esta imagen es una supuesta falsificación barata, un medio de comunicación que ha sido manipulado, editado, etiquetado incorrectamente o contextualizado incorrectamente para difundir desinformación. El cheapfake se encuentra ahora en el centro de un importante incidente internacional. El primer ministro de Australia, Scott Morrison, dijo que China debería estar "completamente avergonzada" y exigió una disculpa por la imagen "repugnante". Beijing se ha negado y, en cambio, ha acusado a Australia de "barbarie" y de intentar "desviar la atención del público" de los presuntos crímenes de guerra de sus fuerzas armadas en Afganistán. https://www.technologyreview.com/2020/12/22/1015442/cheapfakes-more-political-damage-2020-election-than-deepfakes/

¿Qué es tan peligroso sobre las ciudades inteligentes?

 El examen de los daños a los que podría contribuir la tecnología de las “ciudades inteligentes” no puede examinarse en el vacío. Los problemas planteados por estos proyectos están ciertamente relacionados con el debate más amplio sobre las grandes tecnologías y la regulación de la privacidad, pero se distinguen de ellos en que uno no puede dar su consentimiento individualmente o excluirse de su vecindario. Además, la tecnología de la "ciudad inteligente" está cada vez más implicada en las crecientes capacidades de vigilancia estatal (en los EE. UU. Y en el extranjero), pero las discusiones sobre políticas relacionadas pueden perder su papel si se enfocan exclusivamente en tecnologías administradas por agencias de aplicación de la ley o solo consideran los usos actuales en los Estados Unidos. Estados. https://www.belfercenter.org/publication/whats-so-dangerous-about-smart-cities-anyway

El impulso secreto de Europa hacia la tecnología biométrica

 La financiación científica de la UE se está destinanda al desarrollo de nuevas herramientas de vigilancia y seguridad. Pero, ¿quién decide hasta qué punto debemos someternos a la inteligencia artificial? https://www.theguardian.com/world/2020/dec/10/sci-fi-surveillance-europes-secretive-push-into-biometric-technology

Inteligencia artificial y la profesión jurídica

 La ley es una de las profesiones antiguas aprendidas que se remonta a la antigua Grecia y Roma. Los orígenes de la abogacía pueden estar vinculados a Cicerón y Quintiliano, quienes fueron los que sentaron las bases de la educación jurídica y la abogacía.1 La profesión desapareció en la Edad Media, período marcado por la represión y la anarquía, pero reapareció en la Edad Media. para ayudar a las personas con los procedimientos y complejidades de un sistema de justicia en desarrollo.2 El abogado ha estado con nosotros desde entonces. Sin embargo, a lo largo de la historia, los abogados han sido objeto de críticas, 3 a menudo debido al costo y la demora. Asimismo, toda sociedad que ha logrado una forma de gobierno estable y organizada ha tenido una profesión jurídica.4 Sin ley, la vida es "desagradable, brutal y breve" .5 La necesidad de abogados es múltiple. Son esenciales para el orden social. Los abogados desempeñan un papel fundamental en la administración de justicia y en

Cómo los maestros están sacrificando la privacidad de los estudiantes para dejar de hacer trampa

 Cuando comenzó el semestre de otoño en la Universidad de Nevada, Reno, el profesor de psicología Mark Lescroart se enfrentó a un dilema cada vez más común para los maestros: cómo evitar que sus nuevos estudiantes remotos hicieran trampa en las pruebas y exámenes que había diseñado para tomar en clase con supervisión. . https://www.vox.com/platform/amp/recode/22175021/school-cheating-student-privacy-remote-learning

An Introduction to Ethics in Robotics and AI

 Manual de ética en robótica e IA Este libro ofrece una introducción a la ética de los robots y la inteligencia artificial. El libro fue escrito pensando en estudiantes universitarios, políticos y profesionales, pero debería ser accesible para la mayoría de los adultos. El libro está destinado a proporcionar puntos de vista equilibrados y, a veces, contradictorios sobre los beneficios y los déficits de la IA a través de la lente de la ética. Como se analiza en los capítulos siguientes, las cuestiones éticas a menudo no se cortan y secan. Las naciones, las comunidades y las personas pueden tener perspectivas únicas e importantes sobre estos temas que deben ser escuchadas y consideradas. Si bien las voces que componen este libro son las nuestras, hemos intentado representar las opiniones de las comunidades más amplias de IA, robótica y ética. https://link.springer.com/content/pdf/10.1007%2F978-3-030-51110-4.pdf

Cómo crear un espacio para la ética en la IA

Para crear un espacio para la investigación ética ahora, tanto dentro como fuera del sector tecnológico, no podemos esperar a la gran regulación tecnológica. Debemos comprender mejor la cultura de las empresas de tecnología, impulsar la protección de los denunciantes de irregularidades para los investigadores de ética, ayudar a mejorar las habilidades de los reguladores, desarrollar requisitos de documentación y transparencia, y realizar auditorías e inspecciones regulatorias. Y debe haber un ajuste de cuentas en toda la industria cuando se trata de abordar el racismo sistémico y las prácticas laborales extractivas. Sólo entonces se empoderará a las personas que construyen tecnologías para orientar su trabajo hacia el bien social. https://venturebeat.com/2020/12/19/how-to-create-space-for-ethics-in-ai/

Cómo crear un espacio para la ética en la IA

En un año que ha visto décadas de conmociones globales, malas noticias y escándalos comprimidos en 12 meses insoportablemente largos, el verano ya se siente como un recuerdo lejano. En agosto de 2020, el mundo estaba inmerso en un importante movimiento de justicia social y racial, y con suerte dije en VentureBeat que el término “IA ética” finalmente estaba empezando a significar algo. https://venturebeat.com/2020/12/19/how-to-create-space-for-ethics-in-ai/

¿Fue 2020 un hito para el uso de algoritmos por parte del sector público?

 Si el gobierno no sabía que tiene un problema de algoritmo, ciertamente lo sabe ahora. “Hay un nerviosismo claro y comprensible sobre el uso y las consecuencias de los algoritmos, exacerbado por los eventos de este verano”, dijo el Centro de Ética e Innovación de Datos en un importante informe publicado a finales de noviembre. https://www.publictechnology.net/articles/features/was-2020-watershed-public-sector-use-algorithms

El camino al infierno está pavimentado con buenos algoritmos: el caso de desactivar los algoritmos de recomendación en la esfera política

Los algoritmos, y los algoritmos de recomendación en particular, están profundamente arraigados en nuestra esfera pública en red. Facebook nos recomienda nuevos amigos, páginas a las que me gusta o grupos a los que unirse, sitios web de Google que se ajustan a nuestros intereses de búsqueda, personas de Twitter para seguir o temas para consultar, productos de Amazon para comprar, música de Spotify para escuchar y videos de YouTube para mirar. Según Alexa, los sitios web más visitados en los EE. UU. Son Google, YouTube, Amazon, Yahoo y Facebook. Los algoritmos de recomendación son una parte integral de cada uno de esos sitios web. Como han argumentado Eli Pariser, Safiya Umoja Noble, Frank Pasquale y muchos otros, existen innumerables razones para preocuparnos por el papel integral de los algoritmos en nuestra vida diaria. Estos incluyen la creación de comunidades homogéneas sin nuestro conocimiento; reproducción del racismo y la misoginia; y el ocultamiento de decisiones algorítmicas p

Desafíos de ciberseguridad de inteligencia artificial

 Este informe presenta el mapeo activo de la Agencia del ecosistema de ciberseguridad de IA y su panorama de amenazas, realizado con el apoyo del Grupo de Trabajo Ad-Hoc sobre Ciberseguridad de Inteligencia Artificial. El panorama de amenazas de inteligencia artificial de ENISA no solo sienta las bases para las próximas iniciativas de políticas de ciberseguridad y directrices técnicas, sino que también destaca los desafíos relevantes. Un área de particular importancia es la de la cadena de suministro relacionada con la IA y, en consecuencia, es importante destacar la necesidad de un ecosistema de la UE para una IA segura y confiable, incluidos todos los elementos de la cadena de suministro de la IA. El ecosistema de inteligencia artificial segura de la UE debe colocar la ciberseguridad y la protección de datos en un primer plano y fomentar la innovación, la creación de capacidad, la sensibilización y las iniciativas de investigación y desarrollo pertinentes. https://www.enisa.europa.eu

Claves de la nueva demanda a Google por manipular subastas de anuncios

  Texas (EE. UU.) y otros nueve estados de EE. UU.   liderados por republicanos han presentado una  demanda antimonopolio  contra Google, alegando que la empresa ha monopolizado la publicidad digital, incluso a través de sus acuerdos anticompetitivos con Facebook.  Google, según la demanda, no solo conecta a los compradores y vendedores de anuncios, sino que opera el intercambio y manipula las reglas y los algoritmos para favorecer sus propios resultados. Esto  convierte a Google en "el lanzador, receptor, bateador y el árbitro , todo a la vez", afirmó el fiscal general de Texas en su  comunicado .  https://www.technologyreview.es/s/12990/claves-de-la-nueva-demanda-google-por-manipular-subastas-de-anuncios

Un coche autónomo existe gracias a personas que no reciben el salario mínimo

Muchos de los modelos de aprendizaje automático más exitosos y utilizados se  entrenan con la ayuda de miles de  trabajadores por encargo mal pagados . Millones de personas en todo el mundo ganan dinero en las plataformas como Amazon Mechanical Turk, que permiten a las empresas e investigadores subcontratar pequeñas tareas a los  trabajadores colaborativos ( crowdworkers )  online . Según  una estimación , más de un millón de personas solo en EE. UU. ganan dinero cada mes trabajando en estas plataformas. Alrededor de 250.000 de ellas obtienen al menos las tres cuartas partes de sus ingresos de esta manera. Pero a pesar de que muchos trabajan para algunos de los laboratorios de inteligencia artificial (IA) más importantes del mundo,  se les paga por debajo del salario mínimo  y no se les da la oportunidad de desarrollar sus habilidades.    https://www.technologyreview.es/s/12973/un-coche-autonomo-existe-gracias-personas-que-no-reciben-el-salario-minimo

Ética de la IA: la Dra. Carissa Véliz sobre privacidad, publicidad y aprendizaje automático

Los datos están en todas partes. Lo generamos todo el tiempo. “Los datos son el nuevo petróleo” se ha convertido en una frase trillada. Pero en lugar de pensar en una gran cantidad de “datos”, se pueden hacer distinciones importantes entre diferentes tipos de datos. Uno de los más importantes son los datos personales, tema de un nuevo libro de la Dra. Carissa Véliz, profesora asociada de la facultad de filosofía y del Instituto de Ética en IA de la Universidad de Oxford. Si bien los datos a menudo se ven desde un ángulo comercial o incluso político, Véliz utiliza una perspectiva ética para defender el fin del enfoque en los datos personales en campos como la publicidad. Por supuesto, existen conexiones con Deepnews, que proporciona datos contextuales sobre los artículos a través del puntaje de calidad, aunque la ética de la IA también se ha convertido en un tema candente en las noticias recientemente y me comuniqué con el Dr. Véliz con mucho de qué hablar. A continuación se muestra una

El software para realizar pruebas remotas es un desastre inexacto que invade la privacidad

 "No hagas ningún movimiento repentino". "Mira directamente hacia adelante". "No hables". Estos comandos suenan como lo que escucharía durante un arresto, no durante sus exámenes finales, pero en realidad son solo una parte de las reglas que controlan los supervisores remotos en la era de las pruebas en línea. Durante la pandemia de COVID-19, supervisores humanos y automatizados se asoman a los dormitorios de los estudiantes a través de una variedad cada vez más invasiva de herramientas de espionaje académico. 2020 ya fue un momento terrible para intentar aprender, y mucho menos demostrar tu valía en los exámenes de alto riesgo. El campo de juego desigual que definía las pruebas académicas antes de la pandemia se ha vuelto aún más distorsionado por la fiebre del oro de Silicon Valley para vender tanto equipo de vigilancia a las escuelas como sea posible, todo en nombre de frustrar las trampas. Según nuestro informe reciente, Snooping Where We Sleep, la may

La pandemia ha llevado la vigilancia de los trabajadores al siguiente nivel

Uno de los peores trabajos que he tenido se hizo particularmente malo por los esfuerzos de microgestión del jefe de mi gerente. Parecía pasar todo el día merodeando, mirando por encima de los hombros del personal subalterno para comprobar que todo lo que estábamos haciendo parecía trabajo. Si veía a alguien haciendo algo que consideraba inapropiado (generalmente leyendo las noticias o, en los días de poca actividad, tal vez comprando en línea), se acercaba detrás de ellos, señalaba la pantalla, movía el dedo y decía: "¡No trabajo!" A veces, en realidad era trabajo, pero no tenía sentido discutir. Era un entorno frustrante y corrosivo, y no propicio para hacer las cosas. Su medida de productividad fue claramente un instrumento contundente y, en lugar de fomentar un lugar de trabajo motivado, creó una atmósfera de paranoia nerviosa y resentimiento de bajo nivel.  https://www.theguardian.com/commentisfree/2020/dec/14/pandemic-workers-surveillance-monitor-jobs

Libro blanco en línea sobre daños

 El gobierno quiere que el Reino Unido sea el lugar más seguro del mundo para conectarse a Internet y el mejor lugar para iniciar y hacer crecer un negocio digital. Dada la prevalencia de contenido ilegal y dañino en línea y el nivel de preocupación pública por los daños en línea, no solo en el Reino Unido sino en todo el mundo, creemos que la economía digital necesita urgentemente un nuevo marco regulatorio para mejorar la seguridad de nuestros ciudadanos en línea. Esto reconstruirá la confianza pública y establecerá expectativas claras para las empresas, lo que permitirá a nuestros ciudadanos disfrutar de forma más segura de los beneficios que ofrecen los servicios en línea. https://www.gov.uk/government/consultations/online-harms-white-paper/online-harms-white-paper

La tecnología de reconocimiento facial de Alibaba selecciona específicamente a la minoría uigur

 El gigante tecnológico Alibaba Group Holding Ltd tiene tecnología de reconocimiento facial que puede seleccionar específicamente a miembros de la minoría uigur de China, dijo en un informe el investigador de la industria de la vigilancia IPVM. https://www.reuters.com/article/us-alibaba-surveillance-idUSKBN28R0IR

La tecnología de vigilancia agrava la crisis de desalojos en EE. UU.

El mayor uso de tecnologías de vigilancia por parte de los propietarios en todo Estados Unidos podría empeorar una crisis de desalojo que se avecina en medio de la pandemia de coronavirus, advirtieron investigadores e inquilinos el lunes. Hablando en un seminario web, los inquilinos y los expertos en tecnología detallaron el uso de cámaras, escáneres de reconocimiento facial y lectores de matrículas, que dijeron que se implementaban de forma rutinaria sin el consentimiento de los residentes o ninguna explicación sobre cómo se utilizan sus datos.  https://www.reuters.com/article/us-usa-homes-tech-trfn-idUSKBN28O2YX

A medida que la IA cambia de trabajo, ¿cómo preparamos a la fuerza laboral?

 Con demasiada frecuencia, nuestra visión del futuro del trabajo implica que los robots y la inteligencia artificial reemplacen nuestros medios de vida. En cambio, dice James Manyika, socio senior de McKinsey & Co. y presidente del McKinsey Global Institute, es más probable que la inteligencia artificial cambie nuestros trabajos, asumiendo componentes clave que se adapten mejor a la automatización. Entonces, ¿cómo se preparan los trabajadores, empleadores y legisladores para este futuro? https://hai.stanford.edu/blog/ai-shifts-jobs-how-do-we-prepare-workforce

El organismo de control de la UE advierte sobre el uso de inteligencia artificial en la vigilancia policial predictiva, los diagnósticos médicos y la publicidad dirigida

 El organismo de control de los derechos de la Unión Europea advirtió sobre los riesgos de usar inteligencia artificial en la vigilancia predictiva, los diagnósticos médicos y la publicidad dirigida a medida que el bloque reflexiona sobre las reglas el próximo año para abordar los desafíos planteados por la tecnología. Si bien los organismos encargados de hacer cumplir la ley utilizan ampliamente la inteligencia artificial, los grupos de derechos humanos dicen que los regímenes autoritarios también abusan de ella para una vigilancia masiva y discriminatoria. Los críticos también se preocupan por la violación de los derechos fundamentales de las personas y las reglas de privacidad de datos. https://venturebeat.com/2020/12/14/eu-watchdog-warns-of-using-ai-in-predictive-policing-medical-diagnoses-and-targeted-advertising/

Lo que aprendió un filósofo en una evaluación de ética de IA

 La ética de la IA se centra cada vez más en convertir los principios abstractos en acciones prácticas. Este estudio de caso documenta nueve lecciones para la conversión aprendidas al realizar una evaluación ética en un dispositivo médico de IA implementado. Los principios éticos utilizados se adoptaron de las Directrices de ética para una IA confiable, y un equipo independiente compuesto por filósofos, expertos técnicos y médicos logró la conversión en ideas y recomendaciones prácticas. https://www.aiethicsjournal.org/10-47289-aiej20201214

INTELIGENCIA ARTIFICIAL Y DERECHOS FUNDAMENTALES

 Las nuevas tecnologías han cambiado profundamente la forma en que organizamos y vivimos nuestras vidas. En particular, las nuevas tecnologías basadas en datos han estimulado el desarrollo de la inteligencia artificial (IA), incluida una mayor automatización de las tareas que suelen realizar los humanos. La crisis de salud de COVID-19 ha impulsado la adopción de IA y el intercambio de datos, creando nuevas oportunidades, pero también desafíos y amenazas a los derechos humanos y fundamentales. https://fra.europa.eu/sites/default/files/fra_uploads/fra-2020-artificial-intelligence_en.pdf

Cómo nuestros datos codifican el racismo sistemático

 A menudo me han dicho: "Los datos no mienten". Sin embargo, esa nunca ha sido mi experiencia. Para mí, los datos casi siempre mienten. Los resultados de búsqueda de imágenes de Google para "piel sana" muestran solo mujeres de piel clara, y una consulta sobre "chicas negras" todavía arroja pornografía. El conjunto de datos de caras de CelebA tiene etiquetas de "nariz grande" y "labios grandes" que se asignan de manera desproporcionada a rostros femeninos de piel más oscura como la mía. Los modelos entrenados por ImageNet me etiquetan como una "mala persona", un "adicto a las drogas" o un "fracasado". A los conjuntos de datos para detectar el cáncer de piel les faltan muestras de tipos de piel más oscuros. La supremacía blanca a menudo aparece violentamente, en disparos en un Walmart abarrotado o en un servicio religioso, en el comentario agudo de una acusación alimentada por el odio o un empujón en la calle

por qué la desigualdad y el declive económico impulsan la polarización

 La polarización social y política es una fuente importante de conflicto en muchas sociedades. Comprender sus causas se ha convertido en una prioridad para los académicos de todas las disciplinas. Demostramos que cambios en las estrategias de socialización análogos a la polarización política pueden surgir como una respuesta localmente beneficiosa tanto al aumento de la desigualdad de la riqueza como al declive económico. En muchos contextos, la interacción con diversos grupos externos confiere beneficios de la innovación y la exploración mayores que los que surgen de interactuar exclusivamente con un grupo interno homogéneo. Sin embargo, cuando el entorno económico favorece la aversión al riesgo, una estrategia de búsqueda de interacciones grupales de menor riesgo puede ser importante para mantener la solvencia individual. Nuestro modelo muestra que en condiciones de declive económico o creciente desigualdad, algunos miembros de la población se benefician al adoptar una estrategia de a

Para una verdadera "IA confiable", la UE debe proteger los derechos y generar beneficios

 A medida que la inteligencia artificial prolifera en toda Europa y más allá, las realidades injustas y dañinas asociadas con su uso están saliendo a la luz, desde identificar y atacar a manifestantes pacíficos hasta discriminar en función del género percibido. Al mismo tiempo, un movimiento global en torno a la protección de los derechos humanos y la prohibición de algunas aplicaciones de IA está ganando impulso, lo que obliga a los gobiernos a luchar y crear nuevas respuestas regulatorias y pensar más allá de fomentar la innovación. El último informe de Access Now, el enfoque europeo de la inteligencia artificial: cómo está evolucionando la estrategia de IA, explora las acciones que están tomando los gobiernos de la UE para promover lo que la UE llama IA de confianza, lo que este enfoque significa para los derechos humanos y cómo está cambiando la estrategia europea de IA, tanto para las instituciones de la UE y los gobiernos nacionales. Consulte la instantánea del informe para obten

La IA ética no es lo mismo que la IA de confianza, y eso es importante

https://noticiasmoviles.com/la-ia-etica-no-es-lo-mismo-que-la-ia-fiable-y-esto-es-importante/ Las soluciones de inteligencia artificial (IA) se enfrentan a un mayor escrutinio debido a su capacidad para amplificar tanto las buenas como las malas decisiones. Más específicamente, por su propensión a exponer y aumentar los prejuicios y desigualdades sociales existentes. Entonces, es correcto que las discusiones sobre ética ocupen un lugar central a medida que aumenta la adopción de la IA. En sintonía con la ética surge el tema de la confianza. La ética son las reglas que rigen las decisiones que tomamos y las acciones que tomamos. Estas reglas de conducta reflejan nuestras creencias fundamentales sobre lo que es correcto y justo. La confianza, por otro lado, refleja nuestra creencia de que otra persona, o empresa, es confiable, tiene integridad y se comportará de la manera que esperamos. La ética y la confianza son conceptos discretos, pero a menudo se refuerzan mutuamente.

Inteligencia artificial confiable en la educación: trampas y caminos

 En todo el mundo, las aplicaciones de inteligencia artificial (IA) están ingresando a todos los dominios de nuestras vidas, incluido el entorno educativo. Este desarrollo fue impulsado aún más por la pandemia de COVID-19, que hizo que muchas instituciones educativas dependieran de las herramientas de aprendizaje digital (habilitadas por IA) para continuar sus actividades. Si bien el uso de sistemas de inteligencia artificial puede generar numerosos beneficios, también puede implicar riesgos éticos, que aparecen cada vez más en las agendas de los legisladores. Muchos de estos riesgos son específicos del contexto y adquieren mayor importancia cuando están involucradas personas vulnerables, existen asimetrías de poder o los derechos humanos y los valores democráticos están en juego en general. Sin embargo, sorprendentemente, los reguladores hasta ahora han prestado poca atención a los riesgos específicos que surgen en el contexto de la Inteligencia Artificial en la educación (AIED). Por

Por qué la tecnología no puede resolver la equidad algorítmica (1/3): brechas entre cómo los científicos informáticos y los filósofos éticos definen la equidad

 A medida que los algoritmos de aprendizaje automático se utilizan cada vez más para informar decisiones críticas en dominios de alto impacto, ha aumentado la preocupación de que sus predicciones puedan discriminar injustamente en función de atributos legalmente protegidos, como la raza y el género. Los académicos han respondido introduciendo numerosas definiciones matemáticas de equidad para probar el algoritmo. Se han introducido varias herramientas para probar automáticamente las predicciones del algoritmo contra varias definiciones de equidad y proporcionar informes de "pasa / falla". Sin embargo, estos esfuerzos no han logrado ningún consenso sobre cómo abordar el desafío de los resultados injustos en las decisiones algorítmicas. Dado que es matemáticamente imposible cumplir algunas de las condiciones de equidad simultáneamente, los informes a menudo proporcionan información contradictoria sobre la equidad del algoritmo. Las técnicas de “eliminación de sesgos” (pre, in y

La mayor promesa de la IA en el bienestar es la escalabilidad

 la gente tiene la sensación de que los desafíos de la IA son muy únicos, mientras que yo veo los desafíos más como una amplificación de los desafíos existentes. Hay preguntas con las que hemos estado lidiando durante mucho tiempo, y la IA las amplifica. Debido a que con la IA todo es más grande y más rápido, pone más luz sobre los desafíos existentes que siempre estuvieron ahí, pero quizás menos evidentes. https://ieai.mcts.tum.de/wp-content/uploads/2020/12/Reflections-on-AI-Ethics_Y-LanBoureau_V3.pdf

El documento que obligó a Timnit Gebru a salir de Google

 Gebru, una líder ampliamente respetada en la investigación de la ética de la IA, es conocida por ser coautora de un artículo innovador que mostró que el reconocimiento facial es menos preciso para identificar a las mujeres y las personas de color, lo que significa que su uso puede terminar discriminándolas. También cofundó el grupo de afinidad Black in AI y defiende la diversidad en la industria tecnológica. El equipo que ayudó a construir en Google es uno de los más diversos en inteligencia artificial e incluye muchos expertos líderes por derecho propio. Sus compañeros en el campo la envidiaban por producir un trabajo crítico que a menudo desafiaba las prácticas convencionales de IA. https://www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-research-paper-forced-out-timnit-gebru/

Nemitz: “Nada ilegal para los humanos puede ser legal para la inteligencia artificial”

  “La privacidad se esfumó”, proclama uno de los consultados en el documental   iHuman   de la cineasta Tonje Hessen Schai, dedicado a diseccionar un mundo digitalizado, vigilado por cámaras omnipresentes y controlado por la inteligencia artificial. El documental, que está disponible para su compra por organizaciones y centros educativos, fue presentado en una mesa redonda de la OCDE, contando con expertos de primera fila. Y no es, ni muchísimo menos, un alegato contra el uso de la tecnología, sino, en todo caso, contra su abuso sin control. “Es fascinante, y a veces algo aterradora, la rapidez con que está cambiando la relación entre nosotros, los humanos, y la tecnología.  El documental es un  thriller  político de cómo la IA está cambiando nuestro mundo y los desafíos éticos que debemos afrontar hoy”, alega la autora , señalando que estamos en una  “época postprivacidad  y la IA está en todas partes, recolectando nuestros datos”. https://www.elespanol.com/invertia/disruptores-innova

La presidencia alemana de la UE impulsa la ciberseguridad "desde el diseño" en los dispositivos conectados

 Los ordenadores portátiles, teléfonos inteligentes y otros dispositivos conectados en Europa deberían estar sujetos a nuevos estándares de ciberseguridad a lo largo de "todo el ciclo de vida" de los productos, según el proyecto de conclusiones del Consejo de la UE sobre el tema, obtenido por EURACTIV. El texto de la Presidencia alemana se centra en los esfuerzos de la UE para reforzar la ciberseguridad de los dispositivos conectados y aboga por la introducción de medidas más sólidas para garantizar que la rápida adopción de estos productos cuente con las garantías de seguridad y privacidad adecuadas. “El mayor uso de productos de consumo y dispositivos industriales conectados a Internet también generará nuevos riesgos para la privacidad, la información y la ciberseguridad”, dice el documento, que ha circulado entre las naciones de la UE. "La ciberseguridad y la privacidad deben reconocerse como requisitos esenciales en la innovación de productos, los procesos de producc

No, no queremos "democratizar" la IA

 Tome esto: se dice que vender análisis de video como "vigilancia en una caja" democratiza la vigilancia de alta potencia. ¿Por qué democratizar? Dado que comprar el software es mucho más barato que contratar analistas de video, la vigilancia se vuelve accesible y asequible para una base de clientes mucho mayor. Y esto es lo que se entiende por "democratizar la IA": hacer que la IA sea accesible para quienes la deseen. Si seguimos esta línea de razonamiento, las herramientas de IA de arrastrar y soltar representan la "IA más democrática". Algunas personas los elogian como herramientas de aprendizaje automático automatizadas sin código que son fáciles de usar incluso si "eres menos técnico" o no tienes ningún conocimiento técnico. La primera pregunta es: ¿Realmente queremos que la IA sea accesible para todos? Respuesta corta: no. https://dorotheabaur.medium.com/no-we-dont-want-to-democratize-ai-c5b481db5afa

La guerra que se avecina contra los algoritmos ocultos que atrapan a las personas en la pobreza

 Un grupo creciente de abogados está descubriendo, navegando y luchando contra los sistemas automatizados que niegan la vivienda, el empleo y los servicios básicos deficientes. https://www.technologyreview.com/2020/12/04/1013068/algorithms-create-a-poverty-trap-lawyers-fight-back/

Pensando en "lo humano"

 Lo que es evidente también es que las máquinas seguirán mejorando, serán más inteligentes y comenzarán a integrarse cada vez más en nuestras vidas: en nuestros lugares de trabajo, en nuestro juego y en nuestros cuerpos. Algo que me llamó la atención al recordar el triunfo de AlphaGo es cómo nos concebimos cada vez más a nosotros mismos, es decir, lo que significa ser humano, en comparación con nuestros rivales mecánicos. Parece que delimitamos un determinado territorio, lo llamamos "humano" y ponemos todo lo demás fuera. Lo cual está bien, excepto en el caso de los robots y la inteligencia artificial, que están llegando a ocupar cada vez más el territorio que solíamos pensar como exclusivamente nuestro. Lo que significa que siempre estamos cambiando a un terreno cada vez más resbaladizo cuando tratamos de definir preguntas realmente importantes, como ¿qué significa ser humano? ¿Qué tenemos de especial? Y, en consecuencia: ¿a quién queremos otorgar consideración ética? https:

Elección 2020: Tecnología, Democracia y el camino a seguir

 LA RELACIÓN COMPLICADA ENTRE TECNOLOGÍA Y DEMOCRACIA es muy clara a raíz de las elecciones de 2020. Cuando las empresas de tecnología aspiran con orgullo a revolucionar la forma convencional de hacer negocios en el mercado, podemos celebrar la innovación y la competencia. Pero, ¿qué sucede cuando los mismos esfuerzos perturban la democracia misma? Nuestra tarea entonces es examinar preguntas sobre los modelos de negocios de las empresas de redes sociales, la política tecnológica y la relación entre la disrupción tecnológica y los derechos democráticos. https://hai.stanford.edu/sites/default/files/2020-11/HAI_CyberPolicy_IssueBrief_8_Nov2020.pdf?sf133724854=1

Cómo lidiar con la desinformación creada con IA

 Los ataques rápidos de desinformación, es decir, los ataques en los que la desinformación se desencadena de forma rápida y amplia con el objetivo de crear un efecto disruptivo inmediato, son uno de los desafíos más importantes del ecosistema digital. Considere lo siguiente hipotético: En la mañana del día de las elecciones en una elección presidencial estadounidense muy disputada, los partidarios de un candidato lanzan una campaña de desinformación [1] destinada a suprimir los votos a favor del candidato contrario en un estado clave de transición. Después de identificar los distritos en el estado donde es probable que la mayoría de los votantes voten por el oponente, los autores del ataque de desinformación desatan una sofisticada campaña en las redes sociales para difundir lo que parecen ser relatos en primera persona de personas que fueron a los lugares de votación en esos países. precintos y los encontró cerrados. https://www.brookings.edu/research/how-to-deal-with-ai-enabled-disin

Contradicciones y sinsentidos de la Carta de Derechos Digitales del Gobierno

  Tanto las palabras de Artigas como el contenido y la forma de la carta han sido, sin embargo, cuestionadas por voces independientes en diferentes disciplinas. “Las cartas de derechos digitales hace tiempo que se están promoviendo en diferentes países. Nunca vas a liderar en algo si vas por detrás. No aporta absolutamente nada”, asegura Gemma Galdon, experta en ética de la tecnología y fundadora de Eticas Research Consulting y Fundación Eticas. Javier de la Cueva, abogado y profesor especializado en propiedad intelectual, tecnología e internet, va más allá: “Es una farsa. Pura propaganda”, asegura. “ Es tecnologista, contradictoria y crea incertidumbre legal ” dice Lorena Jaume-Palasí, fundadora de Ethical Tech Society y miembro del Consejo Asesor de Inteligencia Artificial de SEDIA. https://www.elespanol.com/invertia/disruptores-innovadores/politica-digital/espana/20201130/contradicciones-sinsentidos-carta-derechos-digitales-gobierno/539946777_0.html

Nueva antología analiza la IA ética y fiable en la UE

 La antología analiza en qué medida las nociones de IA ética y confiable, presentadas por el Grupo de expertos de alto nivel en inteligencia artificial y la Comisión Europea, han influido en las estrategias de IA en Portugal, Países Bajos, Italia, República Checa, Polonia, Noruega como así como los países nórdicos en general. El punto de partida de la antología es el enfoque de la Comisión Europea sobre "IA confiable", expresado en las directrices de la Comisión Europea para una IA ética y confiable, en las 33 recomendaciones de política e inversión de la Comisión para una IA confiable, así como en el Libro Blanco de la Comisión sobre Inteligencia Artificial. . Una pregunta central y orientadora es en qué medida los elementos de las Directrices éticas, como los principios éticos y los requisitos clave, se muestran en la estrategia nacional. Además, los autores examinan cómo los países hablan y promueven la IA en términos de aplicabilidad, conciencia del consumidor, espíritu e

Confianza pública y transparencia

 La innovación sostenible en la tecnología basada en datos depende de la creación y el mantenimiento de la confianza del público. Es evidente que hay un camino por recorrer para generar la confianza del público en los algoritmos, y el punto de partida obvio para esto es garantizar que los algoritmos sean confiables; en la revisión del CDEI sobre el sesgo en la toma de decisiones algorítmicas, analizamos una parte clave de esto. En la revisión, consideramos el papel que puede desempeñar la transparencia en la construcción de un entorno confiable y garantizar la equidad. Si bien esto es cierto en todos los sectores, el sector público tiene la responsabilidad particular de dar ejemplo de cómo debería ser una buena transparencia en el uso de algoritmos. El sector público toma muchas de las decisiones de mayor impacto que afectan a las personas, y esperamos que el sector público pueda justificar y evidenciar sus decisiones. Si bien una persona tiene la opción de optar por no utilizar un ser

IA centrada en el ser humano en la UE

 La Unión Europea ha adoptado una postura clara sobre la IA: queremos IA, pero no queremos ninguna IA; queremos una IA que esté centrada en los seres humanos y sea de confianza. Esto significa que la IA es un medio para mejorar la vida para nosotros, no un fin en sí mismo. Para ser confiable, debe cumplir con las reglas y regulaciones aplicables, satisfacer cuatro principios éticos y ser implementado de manera segura y sólida, como lo hemos definido en el Grupo de expertos de alto nivel en IA. La Comisión ha puesto en marcha cuatro redes de centros de investigación de excelencia en IA (las llamadas redes ICT-48 después del nombre de la convocatoria) está ejecutando el proyecto AI4EU, 1 y tiene la intención de iniciar una asociación público-privada (APP) sobre IA , datos y robótica. Además, y como se centra en esta valiosa contribución, la Comisión también está animando a los Estados miembros a avanzar en la misma dirección a través del Plan de Acción Coordinado sobre IA. ¡Todo esto es

Algoritmos: se insta al sector público a ser abierto sobre el papel en la toma de decisiones

 Los organismos del sector público deben ser más abiertos sobre el uso de algoritmos en la toma de decisiones, se les ha dicho a los ministros. Un organismo asesor del gobierno dijo que se necesitaba una mayor transparencia y responsabilidad en todos los ámbitos de la vida sobre el uso de modelos informáticos en las políticas. Los funcionarios deben comprender los límites y los riesgos de sesgo de los algoritmos, dijo el Centro de Ética e Innovación de Datos. Boris Johnson culpó a un algoritmo "mutante" del caos sobre las calificaciones escolares en Inglaterra este verano. Ofqual y otros reguladores de exámenes en todo el Reino Unido se vieron obligados a dar marcha atrás tras una protesta pública por el uso de un programa informático para determinar las calificaciones de nivel A y GCSE después de la cancelación de los exámenes. https://www.bbc.com/news/uk-politics-55105741

Evolución de las adquisiciones para sistemas de inteligencia artificial en ciudades y más allá

 Dado que la tecnología de los sistemas de inteligencia artificial (AIS) se obtiene cada vez más de empresas privadas para uso público, los estándares de adquisiciones existentes pueden no ser suficientes para identificar de manera proactiva daños o mitigar los riesgos para los ciudadanos o usuarios debido a limitaciones de tiempo o presupuesto. Desafortunadamente, hasta la fecha existe poca investigación e intercambio interdisciplinario sobre temas relacionados con AIS, contratación pública, riesgo, transparencia e impacto. Para desarrollar intervenciones y estrategias significativas, es esencial generar primero una comprensión estructurada de los procesos de contratación pública existentes para identificar cómo pueden cruzarse y apoyar mejor las necesidades de la comunidad. Las ciudades son sitios particularmente importantes, ya que se han convertido en un grupo de clientes AIS de importancia única. Como una forma de abordar esta necesidad, IEEE Standards Association (IEEE SA) está c

Estándares de inteligencia artificial operacional

 Interesante webinar  https://youtu.be/Z6FzMHpPBSQ

Los riesgos de utilizar la inteligencia artificial para el trabajo gubernamental

Las promesas y los imperativos de las mejoras tecnológicas a los sistemas públicos parecen evidentes: los sistemas mejor diseñados pueden mejorar el acceso, reducir las ineficiencias y, en la pandemia actual, mantenernos más saludables y seguros. Sin embargo, ver los sistemas algorítmicos como una solución fácil para problemas institucionalizados arraigados empeorará estos problemas. Para lograr todo el potencial de las nuevas tecnologías, primero debemos desarrollar e instituir la supervisión adecuada en nuestros procesos de contratación pública. Los sistemas de IA, en particular, plantean nuevos riesgos para la sociedad a medida que invaden el uso público. Nuestros procesos democráticos corren el riesgo de ser subvertidos a medida que las empresas privadas se apoderan cada vez más de nuestra infraestructura pública digital, lo que podría conducir a una captura política sin precedentes bajo el disfraz de “modernizar” los servicios públicos. Necesitamos con urgencia niveles adecuados d

¿Qué tipo de robótica centrada en el ser humano necesitamos?

 “Hoy asistimos a una mayor robotización en todos los ámbitos de la sociedad, desde la fabricación hasta la tecnología de asistencia, desde la atención sanitaria a la educación. Estas áreas de aplicación requieren que los robots puedan interactuar con los humanos de una manera eficiente y socialmente aceptable ". Ginevra Castellano continúa: “Al mismo tiempo, como todas las tecnologías, los robots pueden no solo traer beneficios, sino también cambiar nuestra forma de pensar y comportarnos. Esto requiere que los investigadores de interacción humano-robot diseñen y desarrollen inteligencia artificial y robótica más centrada en el ser humano y confiable, que coloque a los humanos en el centro y preserven la agencia y la autonomía humanas, donde los robots se adaptan a la forma en que los humanos se comunican en el mundo, en lugar de al revés." https://wasp-hs.org/news/what-kind-of-human-centric-robotics-do-we-need/