Entradas

Mostrando entradas de noviembre, 2021

La IA y el Todo en el Mundo

https://openreview.net/pdf?id=j6NxpQbREA1 Hay una tendencia en los diferentes subcampos de la IA a valorar una pequeña colección de puntos de referencia influyentes. Estos puntos de referencia actúan como sustitutos de una serie de de problemas comunes ungidos que a menudo se enmarcan como hitos fundacionales en el camino hacia sistemas de IA flexibles y generalizables. El estado de la técnica El rendimiento del estado de la técnica en estos puntos de referencia se considera un indicador del progreso hacia estos objetivos a largo plazo. En este documento de posición, exploramos los límites de estos para poner de manifiesto los problemas de validez de constructo que plantean como medidas como las medidas de progreso funcionalmente "generales" que pretenden ser.

La IA pronto supervisará su propia gestión de datos

https://venturebeat.com/2021/11/24/ai-will-soon-oversee-its-own-data-management/ La IA ayuda a la IA Por ello, muchas organizaciones están recurriendo a la IA para ayudar a depurar los datos que necesita la IA para funcionar correctamente. Según el Índice Global de Protección de Datos 2021 de Dell, la empresa media gestiona ahora diez veces más datos en comparación con hace cinco años, y la carga global se ha disparado de "solo" 1,45 petabytes en 2016 a 14,6 petabytes en la actualidad. Con los datos que se generan en el centro de datos, la nube, el borde y en los dispositivos conectados de todo el mundo, podemos esperar que esta tendencia al alza continúe en el futuro. En este entorno, cualquier organización que no aproveche los datos en todo su potencial está literalmente tirando el dinero por la ventana. Así que, en el futuro, la cuestión no es si integrar la IA en las soluciones de gestión de datos, sino cómo hacerlo. La IA aporta capacidades únicas a cada paso del proceso

Impugnación jurídica de la toma de decisiones relacionadas con la inteligencia artificial en el Reino Unido: reflexiones para la política

https://www.tandfonline.com/doi/full/10.1080/13600869.2021.1999075 Este documento considera la impugnación legal en el Reino Unido como una fuente de reflexiones útiles para la política de IA. El gobierno ha publicado una "Estrategia Nacional de Inteligencia Artificial", pero no está claro hasta qué punto será eficaz, dadas las dudas sobre los niveles de confianza del público. Una de las principales preocupaciones es la aparente "desviación" de la ley por parte del Reino Unido. Se convocaron una serie de actos para investigar las perspectivas jurídicas críticas sobre estos temas, que culminaron en un taller de expertos que abordó cinco sectores. Los participantes debatieron sobre la IA en el contexto de las tendencias más amplias hacia la toma de decisiones automatizada (ADM). Se espera que continúe la reciente proliferación de acciones legales. Los debates pusieron de manifiesto las diversas formas en que los ejemplos individuales se conectan sistemáticamente con l

HOMBRE O MÁQUINA: ¿QUIÉN FORMA A MI HIJO?

https://jenpersson.com/man-or-machine-who-shapes-my-child-worldchildrensday-2021/ Hoy en día, cuando se habla de la IA, oímos el temor a la conciencia en la IA. Vemos "Yo, Robot".  La realidad de cualquier IA que toque sus vidas en los próximos diez años es muy diferente. La definición puede ser discutida, pero la inteligencia artificial en las escuelas ya implica la toma de decisiones automatizada a velocidad y escala, sin compasión ni conciencia, pero con resultados que afectan a la vida de los niños durante mucho tiempo. Las orientaciones actuales -en los documentos políticos, en las herramientas y directrices bien intencionadas y, por supuesto, en otro marco "ético"- son bastante similares en cuanto a los problemas identificados. Sesgo en los datos de formación. Discriminación en los resultados. Acceso o tratamiento desigual. Falta de comprensión o transparencia en la toma de decisiones. Falta de vías de recurso. Más reflexiones sobre la exclusión, la discapacid

El Departamento de Trabajo urge a revelar el algoritmo que "apunta" a los discapacitados para el fraude en las prestaciones

https://www.theguardian.com/society/2021/nov/21/dwp-urged-to-reveal-algorithm-that-targets-disabled-for-benefit Los discapacitados están siendo sometidos a estresantes controles y a meses de frustrante burocracia tras ser identificados como potenciales defraudadores de prestaciones por un algoritmo que el gobierno se niega a revelar, según un nuevo recurso legal. Un grupo de Manchester ha puesto en marcha la acción después de que los discapacitados de la zona hayan manifestado que están siendo objeto de investigaciones sobre el fraude en las prestaciones de forma desproporcionada. Algunos dijeron que vivían con "miedo al sobre marrón" que mostraba que su caso estaba siendo investigado. Otros dijeron que habían recibido una llamada telefónica, sin explicación de por qué habían sido señalados. El Departamento de Trabajo y Pensiones (DWP) ha admitido anteriormente que utiliza "inteligencia artificial de vanguardia" para rastrear posibles fraudes, pero hasta ahora ha re

EL CASO CONTRA LA COMPUTACIÓN CUÁNTICA

https://spectrum.ieee.org/the-case-against-quantum-computing La computación cuántica está de moda. Parece que apenas pasa un día sin que algún medio de comunicación describa las extraordinarias cosas que promete esta tecnología. La mayoría de los comentaristas olvidan, o simplemente pasan por alto, el hecho de que la gente ha estado trabajando en la computación cuántica durante décadas, y sin ningún resultado práctico que mostrar. Nos han dicho que los ordenadores cuánticos podrían "proporcionar avances en muchas disciplinas, como el descubrimiento de materiales y fármacos, la optimización de sistemas complejos y la inteligencia artificial". Nos han asegurado que los ordenadores cuánticos "alterarán para siempre nuestro panorama económico, industrial, académico y social". Incluso se nos ha dicho que "la encriptación que protege los datos más sensibles del mundo podría romperse pronto" gracias a los ordenadores cuánticos. Se ha llegado a un punto en el que

Identidad digital y biometría: Cuando tu cara revela tu estado de vacunación ... y más

https://lens.monash.edu/@politics-society/2021/11/17/1384067/digital-identity-when-your-face-reveals-your-vaccination-status-and-more A medida que muchos australianos salen de las restricciones de cierre, se enfrentan a una serie de nuevos puntos de control: en las tiendas, el lugar de trabajo, los lugares de ocio y las fronteras estatales. Muchos de nosotros no solo tenemos que registrarnos en varios lugares escaneando códigos QR, sino que ahora se nos exige que mostremos una prueba de vacunación y, en algunos contextos, una prueba de pruebas de COVID-19 negativas. El resultado ha sido la imagen cada vez más familiar de personas tanteando con sus teléfonos inteligentes en la acera frente a cualquier espacio en el que intentan entrar. En algunos casos, esto puede significar frustrantes combates con las aplicaciones ("¿Cuál era el código PIN de la aplicación de Medicare?"; "¿Lo he vinculado a mi cuenta de MyGov?"; "¿Dónde está ese texto con los resultados de mis

Inteligencia incorporada en la robótica blanda mediante la multifuncionalidad del hardware

https://www.frontiersin.org/articles/10.3389/frobt.2021.724056/full La comunidad de la robótica blanda se pregunta actualmente cuál es el futuro de la misma. Por ello, es muy importante identificar las direcciones en las que la comunidad debe centrar sus esfuerzos para consolidar su impacto. La identificación de aplicaciones convincentes es una prioridad, especialmente para demostrar que algunos logros ya representan una alternativa atractiva a los enfoques tecnológicos actuales en escenarios específicos. Sin embargo, la mayor parte del valor añadido de la robótica blanda sólo se ha captado teóricamente. La inteligencia incorporada, que es uno de estos principios teóricos, representa un enfoque interesante para explotar plenamente el potencial de la robótica blanda, pero la aplicación pragmática de esta teoría sigue siendo difícil y muy limitada. Un enfoque de diseño diferente podría ser beneficioso, es decir, la integración de un cierto grado de adaptabilidad continua en las funcional

La falacia de la entrada

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3571266 La fijación algorítmica de los precios del crédito amenaza con discriminar a los grupos protegidos. Tradicionalmente, la ley de préstamos justos ha abordado estas amenazas mediante el escrutinio de los insumos. Pero el escrutinio de los insumos se ha convertido en una falacia en el mundo de los algoritmos. Utilizando un rico conjunto de datos de hipotecas, simulo la fijación de precios de créditos algorítmicos y demuestro que el escrutinio de los insumos no aborda los problemas de discriminación y amenaza con crear un mito algorítmico de daltonismo. La ubicuidad de las correlaciones en los grandes datos, combinada con la flexibilidad y la complejidad del aprendizaje automático, significa que no se puede descartar la consideración de características protegidas, como la raza, incluso cuando se excluyen formalmente. Además, el uso de datos que incluyan características protegidas puede, de hecho, reducir los resultados dispares. S

EL ELEVADO COSTE DE LA CAPTURA

https://interactions.acm.org/archive/view/november-december-2021/the-steep-cost-of-capture Este es un momento peligroso. Los sistemas informáticos privados comercializados como inteligencia artificial (IA) se están introduciendo en nuestra vida e instituciones públicas, concentrando el poder industrial, agravando la marginación y configurando silenciosamente el acceso a los recursos y la información. ins01.gif A la hora de considerar cómo hacer frente a este ataque de la IA industrial, debemos reconocer en primer lugar que los "avances" de la IA celebrados en la última década no se debieron a avances científicos fundamentales en las técnicas de IA. Fueron y son principalmente el producto de una concentración significativa de datos y recursos de computación que residen en las manos de unas pocas grandes corporaciones tecnológicas. La IA moderna depende fundamentalmente de los recursos y las prácticas comerciales de las empresas, y nuestra creciente dependencia de dicha IA cede

Anticiparse a las consecuencias tecnoeconómicas: La innovación sociotécnica impulsada por el propósito

https://technologyandsociety.org/transactions/current-edition/ ESTE número especial está dedicado a varios temas que abarcan la tecnoeconomía y la innovación sociotécnica en relación con la tecnología de interés público (TIP). El paradigma tecnoeconómico sustenta la teoría del desarrollo económico y social basada en la innovación [punto 1) del Apéndice]. En la edición de junio de IEEE TRANSACTIONS ON TECHNOLOGY AND SOCIETY, Abbas et al. [punto 2) del Apéndice] escribieron sobre la motivación para la invención y la innovación. Ciertamente, reconocemos reconocemos el paso de un enfoque mecanicista a un enfoque evolutivo en la economía, pero creemos que aún es necesario que es necesario un cambio más, uno que implica inyectar de diseño socio-técnico para la proliferación de las TIP. de las TIP. Se trata de reconocer que el "desarrollo de la sociedad" debe ser el aspecto dominante al considerar el paradigma tecnoeconómico, que en primera instancia requiere una evaluación de la fo

La trampa de la auditoría algorítmica

https://onezero.medium.com/the-algorithmic-auditing-trap-9a6f2d4d461d Este artículo de opinión ha sido escrito por Mona Sloane, socióloga e investigadora científica senior del Centro para la Inteligencia Artificial Responsable de la Universidad de Nueva York (NYU) y miembro del Instituto para el Conocimiento Público de la NYU. Su trabajo se centra en el diseño y la desigualdad en el contexto de los algoritmos y la inteligencia artificial. Tenemos una nueva carrera de la Inteligencia Artificial en nuestras manos: la carrera para definir y dirigir lo que significa auditar algoritmos. Los órganos de gobierno saben que deben encontrar soluciones al daño desproporcionado que pueden causar los algoritmos. Esta tecnología tiene un impacto desproporcionado en las minorías raciales, las personas económicamente desfavorecidas, las mujeres y las personas con discapacidad, con aplicaciones que van desde la atención sanitaria hasta la asistencia social, la contratación y la educación. En este caso,

¿Podemos equivocarnos con un robot?

https://link.springer.com/article/10.1007/s00146-021-01278-x Con el desarrollo de robots sociables cada vez más sofisticados, las relaciones entre robots y humanos se están transformando. Los robots sociables no sólo pueden proporcionar apoyo emocional y compañía a los humanos, sino que éstos también pueden establecer relaciones con los robots que valoran mucho. Es natural preguntarse si los robots que mantienen relaciones estrechas con nosotros tienen algún valor moral más allá de su valor puramente instrumental como medios para los fines humanos. Podríamos plantear nuestra pregunta de la siguiente manera: "¿Existen formas de actuar hacia los robots que serían incorrectas para el robot?". Para abordar esta cuestión, la Parte I expone los enfoques estándar de la posición moral: apelar a las propiedades intrínsecas, a las respuestas humanas y a los valores inherentes a las relaciones. La segunda parte explora en detalle la tercera estrategia, la relacional. Más allá de los aná

Vigilancia como Servicio

https://oxcaigg.oii.ox.ac.uk/wp-content/uploads/sites/124/2021/11/SaaS_Yung_Au_Nov_2021.pdf RESUMEN EJECUTIVO Este informe examina el mercado europeo que produce y exporta sistemas de vigilancia asistida por IA a gobiernos de todo el mundo. En particular, examina lo que lo que llamamos "Vigilancia como Servicio" (SaaS): servicios y software que se proporcionan para la vigilancia, y que consisten en de sistemas complejos que se ofrecen con interfaces fáciles de usar de fácil uso, así como un mantenimiento continuo, actualizaciones y y soporte para la resolución de problemas (en lugar de una compra única). Este análisis se centra en tres ejemplos de estos servicios que que se han vuelto especialmente controvertidos últimamente: el reconocimiento y el análisis facial, el reconocimiento y el análisis de la voz. reconocimiento y análisis faciales, el reconocimiento y análisis del habla y los sistemas de análisis del comportamiento y de empuje. Estimar el tamaño del mercado de esta

Reforzar la cooperación internacional en materia de IA

https://www.brookings.edu/research/strengthening-international-cooperation-on-ai/ Desde 2017, cuando Canadá se convirtió en el primer país en adoptar una estrategia nacional de IA, al menos 60 países han adoptado algún tipo de política para la inteligencia artificial (IA). La perspectiva de un aumento estimado del 16%, o 13 billones de dólares, en la producción mundial para 2030 ha llevado a una carrera sin precedentes para promover la adopción de la IA en la industria, los mercados de consumo y los servicios gubernamentales. La inversión mundial de las empresas en IA habría alcanzado los 60.000 millones de dólares en 2020 y se prevé que se duplique para 2025. Al mismo tiempo, la labor de elaboración de normas mundiales para la IA ha dado lugar a importantes avances en diversos organismos internacionales. Estos abarcan tanto los aspectos técnicos de la IA (en organizaciones de desarrollo de normas (SDO) como la Organización Internacional de Normalización (ISO), la Comisión Electrotécni

El derecho a impugnar la IA

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3965041 La inteligencia artificial (IA) se utiliza cada vez más para tomar decisiones importantes, desde la selección de las admisiones universitarias hasta la determinación de los préstamos y la distribución de las vacunas COVID-19. Estos usos de la IA suscitan una serie de preocupaciones sobre la discriminación, la precisión, la equidad y la responsabilidad. En Estados Unidos, las propuestas recientes para regular la IA se centran en gran medida en la gobernanza ex ante y sistémica. Este artículo defiende, en cambio -o en realidad, además-, un derecho individual a impugnar las decisiones de IA, basado en el debido proceso pero adaptado a la era digital. La Unión Europea, de hecho, reconoce tal derecho, y un número creciente de instituciones de todo el mundo reclaman ahora su establecimiento. Este artículo sostiene que, a pesar de las considerables diferencias entre Estados Unidos y otros países, el establecimiento del derecho a impu

El riesgo existencial de la IA y la ortogonalidad: ¿Podemos tenerlo todo?

https://onlinelibrary.wiley.com/doi/full/10.1111/rati.12320#.YZLnhBoccAM.twitter El argumento estándar para concluir que la inteligencia artificial (IA) constituye un riesgo existencial para la especie humana utiliza dos premisas: (1) La IA puede alcanzar niveles superinteligentes, momento en el que los humanos perderemos el control (la "afirmación de la singularidad"); (2) Cualquier nivel de inteligencia puede ir unido a cualquier objetivo (la "tesis de la ortogonalidad"). La tesis de la singularidad requiere una noción de "inteligencia general", mientras que la tesis de la ortogonalidad requiere una noción de "inteligencia instrumental". Si esta interpretación es correcta, no pueden unirse como premisas y el argumento del riesgo existencial de la IA resulta inválido. Si la interpretación es incorrecta y ambas premisas utilizan la misma noción de inteligencia, entonces al menos una de las premisas es falsa y la tesis de la ortogonalidad sigue si

Operacionalización de la ética de la IA: barreras, facilitadores y próximos pasos

https://link.springer.com/article/10.1007/s00146-021-01308-8 A mediados de 2019 había más de 80 guías de ética de la IA disponibles en el dominio público. A pesar de ello, en 2020 se produjeron numerosas noticias relacionadas con usos éticamente cuestionables de la IA. En parte, esto se debe a que la teoría de la ética de la IA sigue siendo muy abstracta, y de limitada aplicabilidad práctica para los verdaderos responsables del diseño de algoritmos y sistemas de IA. Nuestra investigación anterior trató de empezar a cerrar esta brecha entre el "qué" y el "cómo" de la ética de la IA mediante la creación de una tipología de búsqueda de herramientas y métodos diseñados para traducir entre los cinco principios éticos más comunes de la IA y las prácticas de diseño implementables. Aunque es un punto de partida útil, esta investigación se basa en la suposición de que todos los profesionales de la IA son conscientes de las implicaciones éticas de la IA, comprenden su importa

El seguimiento algorítmico está "dañando la salud mental" de los trabajadores del Reino Unido

https://www.theguardian.com/technology/2021/nov/11/algorithmic-monitoring-mental-health-uk-employees La supervisión de los trabajadores y el establecimiento de objetivos de rendimiento mediante algoritmos está dañando la salud mental de los empleados y debe ser controlada por una nueva legislación, según un grupo de diputados y pares. Una "ley de responsabilidad por los algoritmos" garantizaría que las empresas evaluaran el efecto de los regímenes basados en el rendimiento, como el control de las colas en los supermercados o las directrices de entregas por hora para los conductores de reparto, dijo el grupo parlamentario multipartidista (APPG) sobre el futuro del trabajo. Las tecnologías de control y fijación de objetivos, en particular, se asocian a impactos negativos pronunciados en el bienestar mental y físico, ya que los trabajadores experimentan la presión extrema de la microgestión constante en tiempo real y la evaluación automatizada", señalan los miembros del APP

Timnit Gebru dice que la Inteligencia Artificial tiene que ir más despacio

https://www.wired.com/story/rewired-2021-timnit-gebru/ LOS INVESTIGADORES DE INTELIGENCIA ARTIFICIAL se enfrentan a un problema de responsabilidad: ¿cómo se intenta garantizar que las decisiones sean responsables cuando quien las toma no es una persona responsable, sino un algoritmo? Ahora mismo, sólo un puñado de personas y organizaciones tienen el poder -y los recursos- para automatizar la toma de decisiones. Las organizaciones confían en la IA para aprobar un préstamo o dar forma a la sentencia de un acusado. Pero los fundamentos sobre los que se construyen estos sistemas inteligentes son susceptibles de sesgo. El sesgo de los datos, del programador y de los resultados de una empresa poderosa puede convertirse en una bola de nieve con consecuencias imprevistas. Esta es la realidad contra la que advirtió el investigador de IA Timnit Gebru en una charla de RE:WIRED el martes.

La normativa de la UE sobre inteligencia artificial amenaza con socavar la red de seguridad social

https://www.computerweekly.com/news/252509326/EU-AI-regulation-risks-undermining-social-safety-net El plan propuesto por la Unión Europea (UE) para regular el uso de la inteligencia artificial (IA) amenaza con socavar la red de seguridad social del bloque, y está mal equipado para proteger a las personas de la vigilancia y la discriminación, según un informe de Human Rights Watch. El apoyo a la seguridad social en toda Europa es administrado cada vez más por algoritmos impulsados por la IA, que están siendo utilizados por los gobiernos para asignar beneficios que salvan vidas, proporcionar apoyo al empleo y controlar el acceso a una variedad de servicios sociales, dijo Human Rights Watch en su informe de 28 páginas, Cómo la regulación de inteligencia artificial defectuosa de la UE pone en peligro la red de seguridad social. Basándose en estudios de casos de Irlanda, Francia, los Países Bajos, Austria, Polonia y el Reino Unido, la organización no gubernamental (ONG) descubrió que la ten

¿Cuáles son las próximas políticas que darán forma a la IA, y están los responsables políticos a la altura?

https://www.healthcareitnews.com/news/what-are-upcoming-policies-will-shape-ai-and-are-policymakers-task La inteligencia artificial es la "tecnología transformadora de nuestro tiempo" y exige una regulación fuerte e inteligente para hacer posible su potencial, dice el académico de Brookings Darrell M. West antes de su aparición en HIMSS Machine Learning & AI for Healthcare. Por  Mike Miliard 11 de noviembre de 2021 09:00 AM Foto: Brookings.edu Como vicepresidente y director de estudios de gobernanza en la Brookings Institution, y miembro senior de su Centro de Innovación Tecnológica, Darrell M. West pasa mucho tiempo pensando en la intersección de la política y la tecnología emergente. En su reciente libro, Turning Point: Policymaking in the Era of Artificial Intelligence (Punto de inflexión: la elaboración de políticas en la era de la inteligencia artificial), escrito en colaboración con el presidente de Brookings, John R. Allen, West examina los casos de uso de la IA -

La filosofía es para los blancos elegantes con fondos fiduciarios": ¿por qué hay tan pocas mujeres?

https://www.theguardian.com/higher-education-network/2015/jan/05/philosophy-is-for-posh-white-boys-with-trust-funds-why-are-there-so-few-women La filosofía destaca entre las humanidades: es una de las pocas asignaturas en las que las mujeres superan ampliamente a los hombres. Aunque el número de estudiantes masculinos y femeninos en los cursos de licenciatura de filosofía es casi igual, el número de mujeres que siguen una carrera en filosofía es mucho menor. Un reciente informe de la Equality Challenge Unit reveló que, entre las asignaturas no relacionadas con la ciencia, la tecnología, la ingeniería y las matemáticas, la filosofía es una de las más dominadas por los hombres, que representan el 71,2% de la profesión. ¿Por qué no hay más mujeres filósofas? ¿Y cómo pueden los departamentos universitarios ser más inclusivos? Jennifer Saul Estamos empezando a hacer algunos pequeños progresos en la lucha contra un problema que lleva demasiado tiempo". Fotografía: Jennifer Saul Profesor

Economías de la virtud: la circulación de la "ética" en las grande tecnológicas

https://www.tandfonline.com/doi/full/10.1080/09505431.2021.1990875 La gran tecnología sabe que tiene un problema de ética. Desde los sistemas algorítmicos que ofrecen resultados sesgados y desiguales (Sweeney, 2013; Buolamwini y Gebru, 2018; Noble, 2018; Abid et al., 2021; Phan y Wark, 2021) hasta las culturas tóxicas en el lugar de trabajo que explotan a los trabajadores y discriminan según criterios racistas, sexistas y capacitados (Hoffman, 2020). En los últimos años, estos continuos fracasos de las empresas han dado lugar a demandas de antiguos empleados, responsables políticos y ciudadanos para que las grandes empresas tecnológicas demuestren su responsabilidad pública y actúen con rapidez y decisión para mejorar lo que se ha caracterizado en general como una serie de crisis éticas. La traducción de estas crisis -que abarcan lo ético, lo económico y lo social- en problemas que pueden y deben resolverse mediante la práctica ética ha dado lugar a un mercado de habilidades, señales y

Cómo nos falla la IA

https://ethics.harvard.edu/how-ai-fails-us La visión dominante de la inteligencia artificial imagina un futuro de sistemas autónomos a gran escala que superan a los humanos en una gama cada vez mayor de campos. Esta visión de la "IA realmente existente" malinterpreta la inteligencia como autónoma en lugar de social y relacional. Es improductiva y peligrosa, ya que optimiza las métricas artificiales de la réplica humana en lugar de aumentar el sistema, y tiende a concentrar el poder, los recursos y la toma de decisiones en una élite de ingenieros.  Las visiones alternativas basadas en la participación y el aumento de la creatividad y la cooperación humanas tienen una larga historia y son la base de muchas tecnologías digitales célebres, como los ordenadores personales e Internet.  Los investigadores y los financiadores deberían reorientar la atención desde la inteligencia general autónoma centralizada hacia una pluralidad de enfoques establecidos y emergentes que amplíen las t

El informático que entrena a la IA para que piense con analogías

https://www.quantamagazine.org/melanie-mitchell-trains-ai-to-think-with-analogies-20210714/ El libro Gödel, Escher, Bach, ganador del Premio Pulitzer, inspiró a legiones de informáticos en 1979, pero pocos se sintieron tan inspirados como Melanie Mitchell. Después de leer el libro de 777 páginas, Mitchell, profesora de matemáticas en un instituto de Nueva York, decidió que "necesitaba estar" en la inteligencia artificial. Pronto localizó al autor del libro, el investigador de IA Douglas Hofstadter, y le convenció para que le diera unas prácticas. Ella sólo había hecho un puñado de cursos de informática en ese momento, pero él parecía impresionado por su descaro y no se preocupaba por sus credenciales académicas.  Mitchell preparó una solicitud de posgrado "de última hora" y se incorporó al nuevo laboratorio de Hofstadter en la Universidad de Michigan, en Ann Arbor. Los dos pasaron los siguientes seis años colaborando estrechamente en Copycat, un programa informático

Consecuencialismo y ética de las máquinas: hacia una ética de las máquinas fundamental para garantizar la conducta ética de los agentes morales artificiales

https://montrealethics.ai/consequentialism-and-machine-ethics-towards-a-foundational-machine-ethic-to-ensure-the-ethical-conduct-of-artificial-moral-agents/ Este artículo sostiene que el consecuencialismo representa un tipo de teoría ética que es la más plausible para servir de base a una ética de las máquinas. Comienza esbozando el concepto de agente moral artificial y las propiedades esenciales del consecuencialismo. A continuación, se presenta un escenario con vehículos autónomos para ilustrar cómo las características del consecuencialismo informan la acción del agente. En tercer lugar, se evalúa un enfoque deontológico alternativo y se discute el problema del conflicto moral. Por último, se presentarán dos enfoques ascendentes para el desarrollo de la ética de las máquinas y se cuestionarán brevemente.

Investigción en IA Responsable: retos y oportunidades

https://youtu.be/7Ss6J3UBhz0 Excelente intervención de Margaret Mitchell y de Gabrielle Samuel

Revisión de ResNets: mejora de las estrategias de formación y ampliación

https://arxiv.org/abs/2103.07579 Las nuevas arquitecturas de visión por ordenador acaparan la atención, pero el impacto de la arquitectura del modelo a menudo se confunde con los cambios simultáneos en la metodología de entrenamiento y las estrategias de escalado. Nuestro trabajo revisa la ResNet canónica (He et al., 2015) y estudia estos tres aspectos en un esfuerzo por desentrañarlos. Tal vez sorprendentemente, descubrimos que las estrategias de entrenamiento y escalado pueden ser más importantes que los cambios arquitectónicos y, además, que las ResNets resultantes coinciden con los modelos más recientes del estado del arte. Demostramos que la estrategia de escalado que mejor funciona depende del régimen de entrenamiento y ofrecemos dos nuevas estrategias de escalado: (1) escalar la profundidad del modelo en los regímenes en los que puede producirse un sobreajuste (de lo contrario, es preferible escalar la anchura); (2) aumentar la resolución de la imagen más lentamente de lo que se

La vigilancia de los empleados va en aumento. Los defensores de la privacidad están preocupados por todos nosotros

https://techandsciencepost.com/news/employee-surveillance-is-on-the-rise-privacy-campaigners-are-worried-for-us-all/ El sindicato AUK pide que se introduzcan medidas para proteger a los empleados de la "vigilancia intrusiva", después de que los sondeos indicaran que uno de cada tres trabajadores del Reino Unido es vigilado por su empresa, incluso en su propio domicilio. Prospect, un sindicato de 150.000 miembros que agrupa a los profesionales de la tecnología, la ingeniería, la gestión, la administración pública y otros sectores, afirma que le preocupa que el aumento de las organizaciones que utilizan tecnologías de vigilancia para controlar a los trabajadores se produzca sin control y sin el consentimiento de los empleados. Según los datos de una encuesta realizada por Opinium entre más de 2.400 trabajadores del Reino Unido, el 32% está siendo vigilado de alguna forma por sus empleadores, frente al 24% de abril de 2021. El uso de la tecnología de cámaras para vigilar a las p

El conflicto entre el afán de castigo de las personas y los sistemas jurídicos

https://www.frontiersin.org/articles/10.3389/frobt.2021.756242/full La regulación de la inteligencia artificial (IA) se ha hecho necesaria a la luz de su despliegue en escenarios de alto riesgo. Este artículo explora la propuesta de extender la personalidad jurídica a la IA y a los robots, que aún no había sido examinada desde el punto de vista del público en general. Presentamos dos estudios (N = 3.559) para obtener la opinión de la gente sobre la personalidad jurídica electrónica frente a los modelos de responsabilidad existentes. Nuestro estudio revela el deseo de la gente de castigar a los agentes automatizados aunque a estas entidades no se les reconozca ningún estado mental. Además, la gente no cree que el castigo de los agentes automatizados cumpla con la disuasión ni con la retribución y no está dispuesta a concederles condiciones previas de castigo legal, a saber, independencia física y bienes. En conjunto, estos resultados sugieren un conflicto entre el deseo de castigar a lo

La RCMP quiere utilizar la IA para aprender contraseñas en las investigaciones, pero los expertos advierten de los riesgos para la privacidad

https://www.theglobeandmail.com/business/article-rcmps-plan-to-use-ai-to-learn-passwords-in-investigations-has-privacy/ La Policía Montada de Canadá quiere utilizar tecnología de inteligencia artificial para obtener contraseñas y así poder descifrar los datos incautados durante las investigaciones criminales, lo que ha llevado a expertos en ciberseguridad y libertades civiles a advertir que la tecnología podría poner en riesgo los derechos de privacidad de los canadienses. En Canadá, la policía no puede obligar a las personas a revelar sus contraseñas. Esta semana, la policía ha declarado que está buscando posibles socios para construir un sistema basado en la inteligencia artificial que "ingeriría el material incautado durante una investigación" para averiguar las contraseñas de los datos cifrados. Las fuerzas del orden suelen decir que el uso delictivo de la encriptación para ocultar actividades es un problema creciente a medida que se dispone de tecnología más sofisticada.