Entradas

Mostrando entradas de mayo, 2021

RECONOCIMIENTO FACIAL EN EL PROYECTO DE REGLAMENTO EUROPEO DE IA: INFORME FINAL DEL TALLER DE ALTO NIVEL CELEBRADO EL 26 DE ABRIL DE 2021

https://ai-regulation.com/facial-recognition-in-the-draft-european-ai-regulation-final-report-on-the-high-level-workshop-held-on-april-26-2021/ El borrador del Reglamento de Inteligencia Artificial (IA) propuesto por la Comisión Europea el 21 de abril fue anticipado con entusiasmo. Sus disposiciones sobre reconocimiento facial en un grado aún mayor, dado el acalorado debate que se desarrolla en segundo plano entre quienes apoyan una prohibición general de esta tecnología en los espacios públicos y quienes consideran que tiene “mucho que ofrecer como herramienta para mejorar seguridad pública ”siempre que se introduzcan rigurosas líneas rojas, salvaguardias y normas. Las ONG (como las que apoyan la campaña "Reclaim Your Face") y los grupos políticos (como los Verdes) han estado pidiendo la prohibición total de los "sistemas biométricos de vigilancia masiva en los espacios públicos". Contrariamente a estos llamamientos, en sus presentaciones a la consulta pública sobr

Derechos Humanos y Tecnología

https://tech.humanrights.gov.au/downloads El Informe Final del Proyecto de Tecnología y Derechos Humanos es la culminación de una investigación nacional de tres años sobre los riesgos para los derechos humanos que plantean las tecnologías nuevas y emergentes. Las recomendaciones del informe se basan en la experiencia de la Comisión, nuestra investigación y una amplia consulta pública con la comunidad, el gobierno, la industria y el mundo académico.

Se impugna la legalidad de coleccionar rostros en línea

https://www.bbc.com/news/technology-57268121 Privacy International y otros argumentan que sus métodos para recopilar fotos y venderlas a empresas privadas y a la policía "van más allá de lo que podríamos esperar como usuarios en línea". Clearview ha dicho que no tiene contratos con ningún cliente de la UE. Dijo que había cumplido con las solicitudes para eliminar imágenes de ciudadanos de la UE. Según las reglas de GDPR, los ciudadanos europeos pueden preguntarle a la empresa si sus rostros están en su base de datos y solicitar que sus datos biométricos ya no se incluyan en las búsquedas. Cinco de estas solicitudes fueron presentadas por activistas de privacidad. "Hemos procesado voluntariamente las cinco solicitudes de acceso a datos en cuestión, que solo contienen información disponible públicamente, al igual que miles de otras que hemos procesado", dijo Clearview. Agregó que había "ayudado a miles de agencias de aplicación de la ley en todo Estados Unidos a

Informe de tecnología de reconocimiento de emociones

https://www.article19.org/emotion-recognition-technology-report/ La tecnología de reconocimiento de emociones suele ser pseudocientífica y conlleva un enorme potencial de daño. El último informe de ARTICLE 19, Emotional Entanglement, proporciona evidencia y análisis del floreciente mercado de la tecnología de reconocimiento de emociones en China y su impacto perjudicial en los derechos humanos. El informe demuestra la necesidad de una defensa estratégica y bien informada contra el diseño, desarrollo, venta y uso de tecnologías de reconocimiento de emociones. Sobre todo, hacemos hincapié en que el momento oportuno para tal promoción, antes de que estas tecnologías se generalicen, es crucial para la promoción y protección efectivas de los derechos de las personas, incluida su libertad de expresión y opinión. El informe proporciona una base fáctica que los investigadores, las organizaciones de la sociedad civil, los periodistas y los encargados de formular políticas pueden aprovechar para

Equidad de datos: un nuevo contrato social para la economía del siglo XXI

https://www.technologyreview.com/2021/05/26/1025387/data-fairness-a-new-social-contract-for-the-21st-century-economy/ Durante las últimas dos décadas, la economía de los datos ha penetrado todos los aspectos de nuestra vida social y económica. Ahora, una creciente comunidad de voces busca un nuevo contrato social entre la industria tecnológica y los ciudadanos. El optimismo inicial sobre el poder transformador de Internet ha dado paso, más recientemente, a la sensación de que las ganancias reales no han igualado el potencial esperado. Donde los ciudadanos, los actores no comerciales y los gobiernos son contribuyentes clave al ecosistema de datos, los críticos creen que no son socios de pleno derecho en el desarrollo de la economía de los datos ni en la distribución de sus ganancias, y que las ganancias benefician de manera desproporcionada a los controladores de datos. En todo el mundo, los gobiernos están "asumiendo" la industria de la tecnología, con la gobernanza de datos

Una empresa de seguros se jactó de utilizar inteligencia artificial para detectar fraudes. No salió bien

https://www.vice.com/en/article/z3x47y/an-insurance-startup-bragged-it-uses-ai-to-detect-fraud-it-didnt-go-well Una compañía de seguros impulsada por la inteligencia artificial que afirmó que puede detectar el fraude mediante el análisis de "señales no verbales" en videos de una persona que habla ha eliminado sus afirmaciones después de que los expertos en inteligencia artificial la llamaran en Twitter, lo que plantea preguntas no solo sobre los objetivos distópicos empresa, sino también sobre las capacidades reales de su IA y para qué se utiliza esa IA. Lemonade es una empresa de seguros que permite a las personas presentar reclamaciones a través de videos enviados en una aplicación. En un hilo de Twitter el lunes que la compañía luego eliminó y llamó "horrible", Lemonade anunció que los chatbots de inteligencia artificial de servicio al cliente que utiliza recopilan hasta 1,600 puntos de datos de un solo video de un cliente que responde 13 preguntas. “Nuestra IA a

Dos argumentos en contra de la IA amigable con los humanos

https://link.springer.com/article/10.1007/s43681-021-00051-6 Las últimas décadas han visto un aumento sustancial en el enfoque en las innumerables implicaciones éticas de la inteligencia artificial. Entre los numerosos problemas se incluye el riesgo existencial que algunos creen que podría surgir del desarrollo de la inteligencia artificial general (AGI), que es una forma hipotética de IA que es capaz de realizar las mismas hazañas intelectuales que los humanos. Esto ha llevado a una extensa investigación sobre cómo los humanos pueden evitar perder el control de una IA que es al menos tan inteligente como la mejor de nosotros. Este "problema de control" ha dado lugar a investigaciones sobre el desarrollo de una "IA amigable", que es una AGI altamente competente que se beneficiará, o al menos, no será hostil hacia los humanos. Aunque mi pregunta se centra en la inteligencia artificial, la ética y los problemas que rodean el valor de la amabilidad, quiero cuestionar l

Contra los impuestos a los robots: escudriñando las razones morales para la preservación del trabajo

https://link.springer.com/article/10.1007/s43681-021-00062-3 Una propuesta política reciente para abordar el desafío del desempleo tecnológico sugiere que el estado debería imponer un impuesto a las tecnologías que reemplazan la mano de obra. La idea es preservar los puestos de trabajo desincentivando la automatización. En este artículo, evalúo críticamente la propuesta desde una perspectiva ética. Muestro que, con respecto a las concepciones de la justicia distributiva, no está claro que se pueda justificar excluir las ganancias potenciales de ingresos reales de los consumidores por la automatización. Pero, ante todo, examino el ideal moral detrás de la pretensión normativa de preservar el trabajo. Demuestro que los argumentos a favor de un impuesto a los robots se basan en convicciones morales dudosas sobre el valor del trabajo y concluyo que una base moral para imponer un impuesto a los robots está sujeta a un escrutinio justificado.

La responsabilidad social de los juegos con IA

https://www.possibilityspace.org/papers/preprint/social-arxiv.pdf Durante la última década hemos visto como artificiales la inteligencia se ha transformado en uno de los más importantes temas de nuestro tiempo, y los juegos se han convertido en los mayores industria del entretenimiento. Como resultado, la investigación de la IA de juegos como ha disfrutado de un mayor acceso a la financiación, la exposición en el prensa, e influencia con los gobiernos y algunos de los más grandes empresas de tecnología en el mundo. En este momento crucial en el historia de nuestro campo, este trabajo sostiene que esta posición privilegiada trae consigo un importante conjunto de responsabilidades que tenemos en gran medida no logró cumplir. Mostramos ante quién somos responsables, identificar algunas de estas responsabilidades y sugerir acciones que puede tomar como comunidad para aprovechar este poder para siempre.

La inteligencia artificial está malinterpretando las emociones humanas

https://www.theatlantic.com/technology/archive/2021/04/artificial-intelligence-misreading-human-emotion/618696/ En un puesto remoto en las montañas montañosas de Papúa Nueva Guinea, llegó un joven psicólogo estadounidense llamado Paul Ekman con una colección de tarjetas didácticas y una nueva teoría. Era 1967, y Ekman había oído que la gente Fore de Okapa estaba tan aislada del resto del mundo que serían sus sujetos de prueba ideales. Como los investigadores occidentales antes que él, Ekman había venido a Papúa Nueva Guinea para extraer datos de la comunidad indígena. Estaba reuniendo pruebas para respaldar una hipótesis controvertida: que todos los seres humanos exhiben una pequeña cantidad de emociones o afectos universales que son innatos e iguales en todo el mundo. Durante más de medio siglo, esta afirmación ha sido polémica, disputada entre psicólogos, antropólogos y tecnólogos. No obstante, se convirtió en una semilla para un mercado en crecimiento que tendrá un valor estimado de

Tenemos que dejar de hacer reconocimiento de emociones con IA

https://towardsdatascience.com/we-have-to-stop-doing-ai-emotion-recognition-ca5ed159370 El reconocimiento de emociones es una rama de la inteligencia artificial que tiene como objetivo identificar las emociones en los rostros humanos. En la última década, ha visto un mayor interés tanto en la academia como en la industria, y se espera que el mercado crezca a $ 85 mil millones para 2025. Tiene varias aplicaciones, la mayoría de ellas al menos éticamente cuestionables. Permite a los empleadores evaluar a los empleados potenciales calificándolos por empatía o inteligencia emocional, entre otros rasgos. Ayuda a los profesores a supervisar de forma remota la participación de los estudiantes en las escuelas o mientras hacen el trabajo de clase en casa. Se utiliza para identificar a "personas peligrosas". Y se ha implementado para controlar la frontera de Estados Unidos con México. Los gigantes tecnológicos, a menudo los primeros en adoptar tecnologías potencialmente rentables, pron

El legislador de la UE quiere derechos de privacidad más estrictos en las normas tecnológicas propuestas por la UE

https://www.reuters.com/technology/eu-lawmaker-wants-stronger-privacy-rights-proposed-eu-tech-rules-2021-05-19/ Las reglas propuestas de la UE dirigidas a Facebook (FB.O), Google (GOOGL.O) y otras grandes plataformas en línea deberían incluir derechos de privacidad para los usuarios, así como su derecho al anonimato, dijo el miércoles un legislador clave de la UE que dirige el debate en el Parlamento Europeo . La Ley de Servicios Digitales, anunciada por la Comisión Europea en diciembre del año pasado, requiere que los gigantes tecnológicos hagan más para abordar el contenido ilegal, como el discurso de odio y el material de abuso sexual infantil. También tendrán que hacerlo mejor contra el uso indebido de sus plataformas que atenta contra los derechos fundamentales y la manipulación intencional de las plataformas, como el uso de bots para influir en las elecciones y la salud pública. El borrador de las normas debe discutirse con los legisladores de la UE y los países de la UE antes de

Las nuevas regulaciones de inteligencia artificial tienen importantes implicaciones para el lugar de trabajo

https://workplaceinsight.net/new-artificial-intelligence-regulations-have-important-implications-for-the-workplace/ La Comisión Europea anunció recientemente su propuesta para la regulación de la inteligencia artificial, buscando prohibir los usos “inaceptables” de la inteligencia artificial. Hasta ahora, los desafíos para las empresas que "equivocaban" la inteligencia artificial eran la mala prensa, el daño a la reputación, la pérdida de confianza y participación de mercado y, lo más importante para las aplicaciones sensibles, el daño a las personas. Pero con estas nuevas reglas, surgen dos nuevas consecuencias: la interdicción simple de ciertos sistemas de inteligencia artificial y multas similares al GDPR. Si bien por ahora esto solo se propone para la UE, las definiciones y los principios establecidos pueden tener implicaciones de mayor alcance, no solo en cómo se percibe la IA, sino también en cómo las empresas deben manejar y trabajar con la IA. La nueva regulación esta

'Pienso, luego existo'? - La inteligencia artificial y el sistema de crédito social chino: un análisis crítico de los derechos humanos

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3847481 El Sistema de Crédito Social Chino ("SCS") es la última incorporación del Partido Comunista Chino ("PCCh") en herramientas de aplicación extralegales para controlar el comportamiento de los ciudadanos chinos. Al expresar tanto un interés constante en la inteligencia artificial ('AI') como un rechazo constante de las normas de derechos humanos, la insistencia del PCCh en un SCS completamente nacionalizado solo exacerbará aún más la relación conflictiva entre AI y las normas de derechos humanos en China.

Detectar el sarcasmo con IA

https://www.defenseone.com/technology/2021/05/how-detect-sarcasm-artificial-intelligence/173936/ Una nueva herramienta de inteligencia artificial financiada en parte por el ejército de los EE. UU. Ha demostrado ser experta en una tarea que tradicionalmente ha sido muy difícil para los programas de computadora: detectar el arte humano del sarcasmo. Podría ayudar a los oficiales o agencias de inteligencia a aplicar mejor la inteligencia artificial al análisis de tendencias al evitar publicaciones en las redes sociales que no sean serias. Ciertas palabras en combinaciones específicas pueden ser un indicador predecible de sarcasmo en una publicación en las redes sociales, incluso si no hay mucho otro contexto, señalaron dos investigadores de la Universidad de Florida Central en un artículo de marzo en la revista Entropy. Utilizando una variedad de conjuntos de datos de publicaciones de Twitter, Reddit, varios diálogos e incluso titulares de The Onion, Garibay y su colega Ramya Akula trazar

de lo que tenemos que hablar cuando tratamos de IA

https://www.linkedin.com/pulse/what-we-need-talk-when-ai-regulatory-purposes-virginia-dignum/ Más recientemente, la conciencia de que la "IA" tiene el potencial de impactar nuestras vidas y que nuestro mundo no ha tenido ninguna otra tecnología antes, está planteando legítimamente muchas preguntas sobre sus efectos éticos, legales, sociales y económicos. Tanto el gobierno como las empresas y las organizaciones sociales están presentando propuestas y declaraciones de su compromiso con un enfoque responsable, responsable y transparente de la IA, donde los valores humanos y los principios éticos son los líderes. Este es un desarrollo muy necesario, al que he dedicado mis esfuerzos e investigación en los últimos años. Pero, el desarrollo y uso responsable de la IA comienza con una narrativa de IA adecuada, una que desmitifica las posibilidades y los procesos de las tecnologías de IA, y que permite a todos participar en la discusión sobre el papel de la IA en la sociedad.

¿Es hora de los derechos de los robots? Estado moral en entidades artificiales

https://link.springer.com/article/10.1007/s10676-021-09596-w Algunos autores han sugerido recientemente que es hora de considerar los derechos para los robots. Estas sugerencias se basan en la afirmación de que la cuestión de los derechos de los robots no debería depender de un conjunto estándar de condiciones para el "estado moral"; pero en cambio, la pregunta debe enmarcarse de una manera nueva, rechazando la distinción es / debería, dando un giro relacional o asumiendo un conductismo metodológico. Intentamos aclarar estas sugerencias y mostrar sus consecuencias altamente problemáticas. Si bien encontramos las sugerencias en última instancia desmotivadas, la discusión muestra que nuestra condición epistémica con respecto al estado moral de los demás plantea problemas, y que la tendencia humana a sentir empatía con cosas que no tienen un estado moral debe tomarse en serio; sugerimos que produce un "estatus moral derivado". Finalmente, resulta que normalmente no hay

El seguimiento de los empleados como forma de encarcelamiento

https://uklabourlawblog.com/2021/05/19/employee-monitoring-as-a-form-of-imprisonment-jeevan-hariharan-and-hadassa-noorda/ Una búsqueda superficial en Google de herramientas de monitoreo de empleados revela la amplitud de tecnologías ahora disponibles para que las empresas rastreen la actividad de los trabajadores. Los mejores resultados están dominados por anuncios de software con características como registro de pulsaciones de teclas, monitoreo de sitios web, videovigilancia y rastreo geolocalizado, todo con el objetivo de mantener informados a los gerentes y aprovechar la productividad. Si bien monitorear a los empleados no es un fenómeno nuevo, el interés en tales tecnologías ha aumentado dramáticamente como resultado de la pandemia Covid-19 con el aumento de personas que trabajan desde casa (FMH). Desde una perspectiva legal, la permisibilidad de estas prácticas de monitoreo es compleja. Dos excelentes publicaciones en este blog (una de Philippa Collins y otra de Eleni Frantziou) h

Modelo GLOM

https://www.vectoritcgroup.com/en/tech-magazine-en/artificial-intelligence-en/the-future-of-neural-networks-is-hintons-new-glom-model El aprendizaje profundo fue uno de los grandes avances en el campo de la inteligencia artificial. Generalmente, existe la creencia de que el aprendizaje profundo puede ser todo lo que se necesita para replicar la inteligencia humana. Sin embargo, la realidad es que persisten los desafíos, ya que exponer una red neuronal a un conjunto de datos desconocido lo revelará de manera frágil. Por ejemplo, en el caso de los automóviles autónomos, aparentemente son efectivos, pero los sistemas de inteligencia artificial pueden equivocarse fácilmente. Si el sistema solo ha sido entrenado para identificar objetos desde perspectivas laterales, es poco probable que los reconozca desde una perspectiva superior. Aprovechando el impacto y la gran inversión que implica el desarrollo de la IA en la actualidad, cada día surgen nuevas propuestas para desarrollar Deep Learning

problemas de datos desconocidos conocidos y sistemas autónomos militares

https://unidir.org/known-unknowns Los caprichos de los datos son fundamentales para la debate entre los responsables de la formulación de políticas sobre los daños que pudieran derivarse del uso de autónomos sistemas de armas (AWS) y otras formas de militar inteligencia artificial (IA). Sin duda, ha sido postuló que los sistemas autónomos podrían exhibir un mejor desempeño en ciertas tareas que los medios o métodos tradicionales de guerra, lo que lleva a una reducción de algunos tipos de dañar. Pero debido a que los problemas de datos pueden resultar en fallas del sistema autónomo que podrían aumentar el daño, 1 Tales cuestiones son relevantes para las deliberaciones sobre si tales tecnologías podrían "realizar tareas según lo previsto o pueda ser utilizado de conformidad con [el derecho internacional humanitario] ”. 2 Los problemas de datos y las fallas que causan también son entrelazados con cualquier noción de directa o indirecta control o juicio humano, fundamental principio p

Amazon's Ring es la red de vigilancia civil más grande que Estados Unidos haya visto

https://www.theguardian.com/commentisfree/2021/may/18/amazon-ring-largest-civilian-surveillance-network-us En una carta de 2020 a la gerencia, Max Eliaser, un ingeniero de software de Amazon, dijo que Ring "simplemente no es compatible con una sociedad libre". Deberíamos tomarnos en serio su afirmación. Los timbres con video, el producto de seguridad para el hogar exclusivo de Amazon, representan una seria amenaza para una sociedad libre y democrática. La red de vigilancia de Ring no solo se está extendiendo rápidamente, sino que está ampliando el alcance de las fuerzas del orden a la propiedad privada y ampliando la vigilancia de la vida cotidiana. Es más, una vez que los usuarios de Ring aceptan entregar contenido de video a las fuerzas del orden, no hay forma de revocar el acceso y hay pocas limitaciones sobre cómo se puede usar, almacenar y con quién se puede compartir ese contenido. Cómo Amazon se convirtió en un gigante pandémico y por qué eso podría ser una amenaza par

Los activistas de la privacidad están ganando peleas con los gigantes tecnológicos. ¿Por qué la victoria se siente vacía?

https://www.theguardian.com/commentisfree/2021/may/15/privacy-activists-fight-big-tech Para los activistas de la privacidad, 2021 trae una gran victoria tras otra. Primero, Alphabet, la empresa matriz de Google, anunció en marzo que dejaría de rastrear a los usuarios individuales mientras se desplazan de un sitio a otro. Esta decisión fue parte de la campaña más amplia de Alphabet para eliminar gradualmente el uso de cookies de terceros, una tecnología antigua pero controvertida, a la que se culpa cada vez más por la cultura laxa actual de intercambio de datos. Debería estar preocupado por la cantidad de información que comparte WhatsApp con Facebook Lee mas En lugar de rastrear usuarios individuales a través de cookies, Alphabet planea usar el aprendizaje automático para agrupar a los usuarios en cohortes según las similitudes de comportamiento. Los anuncios estarán dirigidos a estas cohortes, no a individuos. Alphabet aún necesitará algunos datos para ubicar al usuario en la cohorte

La sombría realidad de los trabajos en robótica e inteligencia artificial

https://alanwinfield.blogspot.com/2021/05/the-grim-reality-of-jobs-in-robotics.html La realidad es que la IA, de hecho, ya está generando una gran cantidad de puestos de trabajo. Esa es la buena noticia. La mala noticia es que son en su mayoría, para decirlo sin rodeos, trabajos de mierda. Hay varias categorías de estos trabajos. En el extremo benigno del espectro está el trabajo de anotar imágenes, es decir, mirar imágenes e identificar características y luego etiquetarlas. Este es el etiquetado de IA. Este trabajo es simple e increíblemente aburrido, pero importante porque genera conjuntos de datos de entrenamiento para sistemas de aprendizaje automático. Esos sistemas podrían ser IA para vehículos autónomos y las imágenes identifican bicicletas, semáforos, etc. Los trabajos son de baja calificación y bajo salario y una gran industria internacional ha crecido para permitir que las empresas de alta tecnología subcontraten este trabajo a lo que ha sido llamados talleres clandestinos de

El coste energético de vivir en línea confinado

https://alanwinfield.blogspot.com/2021/05/the-energy-cost-of-online-living-in.html Los lectores de su blog sabrán que una de las muchas cosas éticas que me preocupan es el coste energético de la IA. Como parte del trabajo que estoy haciendo con Claudia Pagliari y su Grupo Nacional de Expertos en Ética Digital para Escocia, he estado investigando también los costos de energía de lo que es, para muchos de nosotros, la vida digital cotidiana encerrada. Todavía no tengo un conjunto completo de resultados, pero lo que he encontrado hasta ahora es sorprendente, y no en el buen sentido. Hasta ahora he analizado los costos de energía de (i) subir a la nube, (ii) transmitir video (es decir, desde iPlayer o Netflix) y (iii) videoconferencia. (i) Subir a la nube. Este artículo de 2017 de la revista Stanford Magazine explica que cuando guarda un archivo de 1 Gbyte (aproximadamente 1 hora de video) en la unidad de disco de su computadora portátil, el costo de energía es 0.000005 kWh o 5 milivatios

Ai mediados de 2021. El automóvil autónomo se encuentra con la realidad

https://blog.piekniewski.info/2021/05/12/ai-mid-2021/ La pandemia ha abrumado en gran medida el ciclo de noticias durante el año pasado y, por lo tanto, ha influido y desinflado en gran medida el tren de la IA. Sin embargo, hubo algunos desarrollos que consideraría significativos. Algunas de ellas muy bien predichas por los artículos de este blog, y otras sorprendentes. Saltemos de inmediato. Millones de robotaxis en el país de las maravillas Dado que, después de todo, es 2021, el fracaso de la IA más inmediato está relacionado con la robotaxis de Tesla o, más bien, la falta de ella. Elon Musk prometió que Tesla alcanzaría la autonomía L5 para fines de 2020 en abril de 2019 cuando necesitaba recaudar dinero [y reiteró en abril de 2020]. El famoso día de la autonomía fue un bombo publicitario y mostró demostraciones limitadas disponibles para algunos invitados del programa. Estos paseos de demostración no fueron diferentes de la demostración que se mostró en 2016 (como resultó más tarde

Frameworkpara la toma de decisiones sutomatizada

https://www.gov.uk/government/publications/ethics-transparency-and-accountability-framework-for-automated-decision-making/ethics-transparency-and-accountability-framework-for-automated-decision-making La orientación actual puede ser larga, compleja y, a veces, demasiado abstracta. Este no es solo un problema digital, de datos y tecnología (DDaT). Necesitamos mejorar la alfabetización general de la toma de decisiones automatizada o algorítmica con información clara y pasos prácticos para que los funcionarios y ministros apoyen la agenda y proporcionen el desafío apropiado. Los responsables de la toma de decisiones no deben asumir que la toma de decisiones automatizada o algorítmica es una solución que "arregla todo", en particular para los problemas más complejos.

Necesitamos diseñar la desconfianza en los sistemas de IA para hacerlos más seguros

https://www.technologyreview.com/2021/05/13/1024874/ai-ayanna-howard-trust-robots/ He notado que utiliza el término "inteligencia humanizada" para describir su investigación, en lugar de "inteligencia artificial". ¿Porqué es eso? Sí, comencé a usar eso en un artículo en 2004. Estaba pensando en por qué trabajamos en inteligencia para robótica y sistemas de inteligencia artificial. No es que queramos crear estas funciones inteligentes fuera de nuestras interacciones con las personas. Estamos motivados por la experiencia humana, los datos humanos, las aportaciones humanas. La "inteligencia artificial" implica que es un tipo diferente de inteligencia, mientras que la "inteligencia humanizada" dice que es inteligente pero está motivada por la construcción humana. Y eso significa que cuando creamos estos sistemas, también nos aseguramos de que tengan algunos de nuestros valores sociales. ¿Cómo llegaste a este trabajo? Fue principalmente motivado por m

Medir los sesgos del modelo en ausencia de una verdad fundamental

https://arxiv.org/abs/2103.03417 La medición del sesgo en el aprendizaje automático a menudo se centra en el rendimiento del modelo en los subgrupos de identidad (como el hombre y la mujer) con respecto a las etiquetas de verdad fundamental. Sin embargo, estos métodos no miden directamente las asociaciones que un modelo puede haber aprendido, por ejemplo, entre etiquetas y subgrupos de identidad. Además, medir el sesgo de un modelo requiere un conjunto de datos de evaluación completamente anotado que puede no estar fácilmente disponible en la práctica. Presentamos una elegante solución matemática que aborda ambos problemas simultáneamente, utilizando la clasificación de imágenes como ejemplo de trabajo. Al tratar las predicciones de un modelo de clasificación para una imagen dada como un conjunto de etiquetas análogas a una bolsa de palabras, clasificamos los sesgos que un modelo ha aprendido con respecto a diferentes etiquetas de identidad. Usamos (hombre, mujer) como un ejemplo concr

El máximo tribunal de Francia valida la vigilancia masiva a largo plazo

https://edri.org/our-work/frances-highest-court-validates-mass-surveillance-in-the-long-term/ En total desprecio de la jurisprudencia europea, la sentencia del tribunal de Francia ignora los fundamentos de muchas de las sentencias del Tribunal de Justicia de la UE (TJUE). En octubre de 2020, el TJUE consideró que tanto la ley francesa que regula el acceso de los servicios de inteligencia a los datos (“Loi renseignement”) como la legislación que obliga a los operadores de telecomunicaciones a retener todos los metadatos de las comunicaciones (direcciones IP, datos de ubicación, etc.) de forma generalizada y de manera indiferenciada eran contrarios a los derechos fundamentales. Con su fallo, el Conseil d'Etat aísla a Francia en su "Frexit de seguridad" y saca los principios del estado de derecho del camino de los servicios de inteligencia franceses. A primera vista, la decisión del Conseil d'Etat conduce a la invalidación o derogación de algunos de los decretos atacados

"Nunca tendremos una verdadera IA sin primero comprender el cerebro"

https://www.technologyreview.com/2021/03/03/1020247/artificial-intelligence-brain-neuroscience-jeff-hawkins/ La búsqueda de la IA siempre se ha tratado de intentar construir máquinas que piensen, al menos en cierto sentido. Pero la cuestión de cuán parecidas deberían ser la inteligencia artificial y la biológica ha dividido la opinión durante décadas. Los primeros esfuerzos para construir IA involucraron procesos de toma de decisiones y sistemas de almacenamiento de información que se inspiraron vagamente en la forma en que los humanos parecían pensar. Y las redes neuronales profundas de hoy en día se inspiran vagamente en la forma en que las neuronas interconectadas se activan en el cerebro. Pero la inspiración suelta suele llegar hasta donde llega. La mayoría de las personas en IA no se preocupan demasiado por los detalles, dice Jeff Hawkins, neurocientífico y emprendedor tecnológico. Quiere cambiar eso. Hawkins ha estado a caballo entre los dos mundos de la neurociencia y la IA dura

¿Cómo ha afectado COVID a la economía de la IA?

https://hai.stanford.edu/news/how-has-covid-affected-ai-economy?utm_content=Stanford%20HAI_twitter_StanfordHAI_202105101000_sf143400217 A medida que las empresas y otras organizaciones de todo el mundo gestionan los efectos de la pandemia en curso y consideran un futuro pospandémico que se materializa lentamente, surge una pregunta clave: ¿cuánto impacto COVID en la industria de la inteligencia artificial? "La IA se encuentra todavía en las primeras etapas de una larga tendencia de crecimiento secular", dice Erik Brynjolfsson, profesor Jerry Yang y Akiko Yamazaki y miembro principal del Instituto de Stanford para la IA centrada en el ser humano (HAI) y director del Laboratorio de Economía Digital de Stanford. "Pero la pandemia está acelerando esa tendencia, especialmente en áreas como la biotecnología, incluido el diseño y el descubrimiento de fármacos". Brynjolfsson es miembro del comité directivo del Índice de IA 2021 recientemente publicado, un estudio anual del

Robots asesinos y su cumplimiento de los principios del derecho de la guerra

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3840427 Los robots ya no son ficticios como solían ser hace años. Los avances tecnológicos y los desarrollos en el desarrollo de la inteligencia artificial (IA) han permitido la innovación de robots que llevan a cabo diversas funciones. Entre ellas se encuentran las innovaciones robóticas destinadas a reemplazar a los soldados en los campos de batalla. Algunos estudiosos han argumentado que estos robots son más éticos y clínicos que los soldados humanos. Otros han argumentado que debería prohibirse el creciente nivel de autonomía en estos robots que conduce a la innovación de armas totalmente autónomas. Argumentan que la capacidad de estas armas para diferenciar entre civiles y combatientes y, por lo tanto, puede causar la muerte innecesaria de civiles. Este artículo analiza lo difícil que es que el algoritmo aplique el derecho de la guerra (derecho internacional humanitario) al analizar cómo los robots asesinos (también conocidos com

Inteligencia artificial y ética: dieciséis desafíos y oportunidades

https://www.scu.edu/ethics/all-about-ethics/artificial-intelligence-and-ethics-sixteen-challenges-and-opportunities/ 1. Seguridad técnica La primera pregunta para cualquier tecnología es si funciona según lo previsto. 2. Transparencia y privacidad Una vez que hayamos determinado que la tecnología funciona de manera adecuada, ¿podemos realmente comprender cómo funciona y recopilar datos de manera adecuada sobre su funcionamiento? 3. Uso beneficioso y capacidad para el bien El objetivo principal de la IA es, como cualquier otra tecnología, ayudar a las personas a llevar vidas más largas, prósperas y satisfactorias. 4. Uso malicioso y capacidad para cometer el mal Una tecnología que funcione perfectamente, como un arma nuclear, puede, cuando se utiliza para el uso previsto, causar un mal inmenso. 5. Sesgo en datos, conjuntos de entrenamiento, etc. Una de las cosas interesantes de las redes neuronales, los caballos de batalla actuales de la inteligencia artificial, es que fusionan efectiva

El enfoque chino de la inteligencia artificial: un análisis de la política, la ética y la regulación

https://montrealethics.ai/the-chinese-approach-to-ai-an-analysis-of-policy-ethics-and-regulation/ Este documento explora las políticas de IA actuales de China, sus planes futuros y los estándares éticos en los que están trabajando. Los autores se centran en el esfuerzo estratégico de China en todo el país, es decir, el "Plan de desarrollo de inteligencia artificial de nueva generación" (AIDP). Los objetivos estratégicos del plan se pueden dividir en 3 objetivos principales: competencia internacional, desarrollo económico y gobernanza social.

Inteligencia artificial y el futuro de los humanos

https://www.forbes.com/sites/forbestechcouncil/2021/05/06/artificial-intelligence-and-the-future-of-humans/ La inteligencia artificial ya está impactando prácticamente en todas las industrias y en todos los seres humanos. Esta increíble tecnología ha traído muchas cosas buenas y cuestionables a nuestras vidas y creará un impacto aún mayor en las próximas dos décadas. Según Ray Kurzweil, uno de los futuristas más conocidos, las computadoras tendrán el mismo nivel de inteligencia que los humanos para 2029. Kurzweil declaró a Futurism, "2029 es la fecha constante que he predicho para cuando una IA pasará una prueba de Turing válida. y por lo tanto alcanzar los niveles humanos de inteligencia. He fijado la fecha de 2045 para la 'Singularidad', que es cuando multiplicaremos nuestra inteligencia efectiva mil millones de veces al fusionarnos con la inteligencia que hemos creado ". Por muy notable que sea esta tecnología, no deja de tener grandes preocupaciones para la humani

Italia gana: DPA bloquea el sistema de reconocimiento facial y MP propone una moratoria

https://reclaimyourface.eu/italy-dpa-blocks-facial-recognition-system-mp-proposes-moratorium/ El viernes 16 de abril, la Autoridad Italiana de Protección de Datos (DPA) rechazó el sistema de reconocimiento facial SARI Real Time adquirido por la Policía. La DPA argumenta que el sistema carece de una base legal y, tal como se diseñó, implementaría una forma de vigilancia masiva. Dos días antes, el 14 de abril, un miembro del Parlamento italiano, Filippo Sensi, propuso una moratoria sobre el uso de herramientas de videovigilancia que utilizan el reconocimiento facial. El sistema de reconocimiento automático de imágenes (SARI) fue adquirido inicialmente por la policía italiana en 2017 y, según la policía, nunca se ha utilizado la versión en tiempo real. El sistema estaba siendo investigado por la DPA desde noviembre de 2017, luego de que un artículo de noticias impulsara a la Autoridad a abrir una investigación y la presión del Centro Hermes para que la Autoridad concluyera rápidamente est