Entradas

Mostrando entradas de febrero, 2021

También en Wordpress

Puedes encontrar el mismo contenido con un mejor motor de búsquedas en Wordpress https://actualidaddeeplearning.wordpress.com/ Los dos sitios se mantendrán sincronizados. ¡Disfruta de nuestra selección!

La artificialidad de la IA: ¿Por qué permitimos que las máquinas administren a los empleados? Febrero 2

https://montrealethics.ai/the-artificiality-of-ai-why-are-we-letting-machines-manage-employees/ Los algoritmos ya median mucho en varios aspectos de nuestra vida diaria, desde dónde decidimos comer, cómo llegamos del punto A al B, qué noticias vemos y cómo organizamos nuestro día. Como observó Peter Sondergaard, vicepresidente senior de Gartner, “el algoritmo de Amazon te mantiene comprando. Netflix te mantiene mirando. Y las aplicaciones algorítmicas más nuevas como Waze te mantienen en movimiento ... Ahora tengo tantos dispositivos inteligentes, que lo único que no es inteligente soy yo ". La declaración de Sondergaard revela cómo consideramos que la inteligencia artificial a menudo es superior, o al menos, más inteligente que la inteligencia humana. Existe una tendencia en las discusiones populares sobre la IA a olvidar la primera parte del acrónimo, la clave es artificial y, en cambio, se centra en la segunda, la inteligencia. Esto es especialmente cierto con la creciente inte

El aprendizaje profundo no tiene por qué ser una caja negra

https://jpt.spe.org/deep-learning-doesnt-need-to-be-a-black-box https://arxiv.org/abs/2002.01650 La percepción cultural de la IA a menudo es sospechosa debido a los desafíos de saber por qué una red neuronal profunda hace sus predicciones. Entonces, los investigadores intentan abrir esta caja negra después de que una red está capacitada para correlacionar los resultados con las entradas. Pero, ¿qué pasaría si el objetivo de la explicabilidad se pudiera diseñar en la arquitectura de la red, antes de que se entrene el modelo y sin reducir su poder predictivo? Quizás la caja podría permanecer abierta desde el principio.

GCHQ utilizará la inteligencia artificial para abordar el abuso sexual, la desinformación y la trata de niños

https://www.gchq.gov.uk/news/artificial-intelligence Gran Bretaña es hoy una nación digital, que lidera y configura eventos en un mundo inextricablemente vinculado a través del ciberespacio. Ahora y en el futuro, el valor de nuestra economía, nuestro estilo de vida y nuestra influencia global se basará en nuestra infraestructura, capacidades y conocimientos digitales avanzados. La inteligencia artificial, una forma de software que puede aprender a resolver problemas a una escala y velocidad imposibles para los humanos, es cada vez más esencial para la forma en que vivimos. Ya está transformando sectores tan diversos como la salud, las telecomunicaciones y la manufactura. El software de inteligencia artificial informa a nuestros navegadores, guía nuestras búsquedas en Internet y nos protege cada vez que hacemos una compra electrónica o abrimos una aplicación en nuestro teléfono inteligente. En el siglo transcurrido desde su fundación, GCHQ ha estado a la vanguardia de la innovación en s

Principios prácticos para la política de inteligencia artificial: tres vías Charlotte Stix

https://link.springer.com/article/10.1007/s11948-020-00277-3 En el desarrollo de una política gubernamental para la inteligencia artificial (IA) que se basa en la ética, una vía que se sigue actualmente es la de basarse en los “Principios éticos de la IA”. Sin embargo, estos principios éticos de la IA a menudo no se aplican en las políticas gubernamentales. Este documento propone un marco novedoso para el desarrollo de "Principios prácticos para la IA". El enfoque reconoce la relevancia de los principios éticos de la IA y se centra en elementos metodológicos para aumentar su aplicabilidad práctica en los procesos de políticas. Como caso de estudio, se extraen elementos del proceso de desarrollo de las Directrices éticas para una IA fiable del "Grupo de expertos de alto nivel sobre IA" de la Comisión Europea. Posteriormente, estos elementos se amplían y evalúan a la luz de su capacidad para contribuir a un marco prototipo para el desarrollo de 'Principios práctic

La IA está matando la elección y el azar, lo que significa cambiar lo que significa ser humano

https://theconversation.com/ai-is-killing-choice-and-chance-which-means-changing-what-it-means-to-be-human-151826 La historia del uso de la tecnología por parte de los seres humanos siempre ha sido una historia de coevolución. Filósofos, desde Rousseau hasta Heidegger y Carl Schmitt, han argumentado que la tecnología nunca es una herramienta neutral para lograr fines humanos. Las innovaciones tecnológicas, desde las más rudimentarias hasta las más sofisticadas, remodelan a las personas a medida que utilizan estas innovaciones para controlar su entorno. La inteligencia artificial es una herramienta nueva y poderosa, y también está alterando a la humanidad. La escritura y, más tarde, la imprenta hicieron posible registrar cuidadosamente la historia y difundir fácilmente el conocimiento, pero eliminó tradiciones centenarias de narración oral. Las ubicuas cámaras digitales y telefónicas han cambiado la forma en que las personas experimentan y perciben los eventos. Los sistemas GPS ampliame

Libertad de Expresión y Algoritmos

https://parliamentlive.tv/event/index/316fa827-ac19-430c-8c19-405705b753c6?in=16:09:44 Debate con Sandra Watcher y Carissa Véliz en Parlamento.tv UK

Remote Controlled Workers

https://prospect.org/labor/remote-controlled-workers-digital-surveillance/ Primero vinieron por los autónomos. Chris tenía una década de experiencia como consultor de varias empresas de tecnología del Área de la Bahía cuando, en 2017, una empresa acordó contratarlo con la condición de que pudieran instalar una forma de software espía en su computadora portátil durante la duración de su contrato. “Tenían muy claro que usarían este programa para medir mi productividad y que podrían usarlo en mi contra”, me dijo. El software, llamado Hubstaff, permitiría a la compañía monitorear su rutina de trabajo de forma remota a través de su cámara web, así como sus pulsaciones de teclas y el uso de las redes sociales, ofreciendo análisis detallados de su desempeño. Chris consideró rechazar la oferta, pero pronto decidió que era el costo del negocio. “Era eso o no pagaba el alquiler. ¿Qué opción tuve? Hubstaff se desarrolló originalmente en respuesta a una legión creciente de trabajadores independien

Las empresas que controlan nuestras identidades secretas

https://edri.org/our-work/companies-control-our-secret-identities/ Las empresas pueden recopilar sus datos personales de muchas fuentes diferentes y convertirlos en una "identidad secreta". Esto es cuando las empresas usan información sobre usted para asumir sus rasgos de personalidad y predecir su comportamiento, y vender este perfil a otros. Pero, ¿quiénes son las empresas detrás de esta práctica? Las tecnologías y los servicios nos ofrecen mucho y pueden mejorar enormemente nuestra vida diaria. Pero muchas de las empresas que los proporcionan, especialmente las que los ofrecen de forma gratuita, recopilan datos sobre usted. Pueden ser datos que comparte consciente y voluntariamente para disfrutar de los beneficios del servicio (nombre, edad, dirección de correo electrónico ...) o datos que quizás no se dé cuenta de que está compartiendo, como su ubicación aproximada a través de su dirección IP o su identificador de red social o a través de aplicaciones que acceden a sus co

La UE debería regular la IA sobre la base de los derechos, no de los riesgos

https://www.accessnow.org/eu-regulation-ai-risk-based-approach/ En solo unos meses, la Comisión Europea está preparada para presentar un reglamento sobre inteligencia artificial (IA). A pesar de las numerosas declaraciones de la sociedad civil y otros actores sobre los peligros de aplicar un enfoque basado en el riesgo para regular la IA, la Comisión Europea parece decidida a ir en esta dirección. La Comisión ya dijo en su Libro Blanco de 2020 sobre Inteligencia Artificial que quería aplicar un enfoque basado en el riesgo. Un enfoque basado en el riesgo implica determinar la escala o el alcance de los riesgos relacionados con una situación concreta y una amenaza reconocida. Este enfoque es útil en entornos técnicos donde las empresas tienen que evaluar sus propios riesgos operativos. Sin embargo, el enfoque de la UE haría que las empresas evaluaran sus riesgos operativos frente a los derechos fundamentales de las personas. Este es un concepto erróneo fundamental de lo que son los derec

¿Puede la auditoría eliminar el sesgo de los algoritmos?

https://themarkup.org/ask-the-markup/2021/02/23/can-auditing-eliminate-bias-from-algorithms La auditoría algorítmica recibió mucha prensa recientemente cuando HireVue, una popular compañía de software de contratación utilizada por compañías como Walmart y Goldman Sachs, enfrentó críticas porque los algoritmos que usaba para evaluar a los candidatos a través de entrevistas en video estaban sesgados. HireVue llamó a una firma de auditoría para que le ayudara y en enero promocionó los resultados de la auditoría en un comunicado de prensa. La auditoría encontró que las predicciones del software "funcionan como se anuncian con respecto a cuestiones de equidad y sesgo", dijo HireVue en un comunicado de prensa, citando a la firma de auditoría que contrató, O’Neil Risk Consulting & Algorithmic Auditing (ORCAA). Pero a pesar de realizar cambios en su proceso, incluida la eliminación del video de sus entrevistas, HireVue fue ampliamente acusado de usar la auditoría, que analizaba d

Abstracción y creación de analogías en artificial Inteligencia

https://arxiv.org/abs/2102.10717 La abstracción conceptual y la creación de analogías son habilidades clave que subyacen a las capacidades de los seres humanos para aprender, razonar y adaptar de manera sólida su conocimiento a nuevos dominios. A pesar de una larga historia de investigación sobre la construcción de sistemas de IA con estas habilidades, ningún sistema de IA actual se acerca a la capacidad de formar abstracciones o analogías humanas. Este artículo revisa las ventajas y limitaciones de varios enfoques hacia este objetivo, incluidos los métodos simbólicos, el aprendizaje profundo y la inducción probabilística de programas. El artículo concluye con varias propuestas para diseñar tareas de desafío y medidas de evaluación con el fin de lograr avances cuantificables y generalizables en esta área.

Curso gratuito; Introducción a la Ética de Datos

https://www.scu.edu/media/ethics-center/technology-ethics/READFIRSTNotesForInstructorsDataEthics2017.pdf Este módulo de ética independiente "plug-and-play" se puede utilizar en parte o en su totalidad, y es apropiado para la cobertura en dos a cinco sesiones de clase. No es asi requerir la compra de un texto de curso por separado; todos los materiales necesarios, incluida la lectura, Aquí se proporcionan preguntas sobre tareas y estudios de casos. El uso del módulo no requerir que el instructor o los estudiantes tengan una formación especial en teoría ética, ética aplicada o filosofía. Esto debe verse solo como una breve introducción a pensar en la ética en el contexto de la práctica de datos, y no como un curso completo de ética de los datos.

Consejo de Europa: Directrices sobre el reconocimiento facial

https://rm.coe.int/guidelines-on-facial-recognition/1680a134f3?utm_source=DiploMail&utm_campaign=11a124877d-WeeklyDigest15_COPY_01&utm_medium=email&utm_term=0_4510155485-11a124877d-120324936 El reconocimiento facial es el procesamiento automático de imágenes digitales que contienen rostros de personas. para la identificación o verificación de esas personas mediante el uso de plantillas faciales. La sensibilidad de la información de naturaleza biométrica se reconoció explícitamente con la inclusión de datos que identifican de forma única a una persona en las categorías especiales de datos del artículo 6 de la Convenio modernizado para la protección de las personas en lo que respecta al tratamiento de Datos personales1  (en adelante, "Convenio 108+"). El contexto del procesamiento de imágenes es relevante para la determinación de la naturaleza sensible de los datos, ya que no todo el procesamiento de imágenes implica el procesamiento de datos sensibles. Imagenes sol

La (in) credibilidad de los modelos algorítmicos para los no expertos

https://www.academia.edu/43177641/The_in_credibility_of_algorithmic_models_to_non_experts?email_work_card=title El rápido desarrollo y difusión del análisis de datos. técnicas permiten la creación de algoritmos cada vez más intrincados modelos. Tales modelos son simultáneamente el vehículo y el resultado de las prácticas de cuantificación y encarnan una cosmovisión con normas y valores asociados. Se requiere un conjunto de habilidades especializadas para crear, utilizar o interpretar modelos algorítmicos. La mecánica de un El modelo algorítmico puede ser difícil de comprender para los expertos y puede ser prácticamente incomprensible para los no expertos. Esto es de consecuencia porque tal boxeo negro puede introducir poder asimetrías y pueden ocultar sesgos. Este documento explora el prácticas a través de las cuales expertos y no expertos determinan la credibilidad de los modelos algorítmicos. Concluye que (1) transparencia para (no) expertos es, en el mejor de los casos, problemático

Ética de la inteligencia artificial

https://iep.utm.edu/ethic-ai/ Este artículo proporciona una visión general completa de las principales cuestiones éticas relacionadas con el impacto de la Inteligencia Artificial (IA) en la sociedad humana. La IA es el uso de máquinas para hacer cosas que normalmente requerirían inteligencia humana. En muchas áreas de la vida humana, la IA ha afectado rápida y significativamente a la sociedad humana y las formas en que interactuamos entre nosotros. Seguirá haciéndolo. En el camino, AI ha presentado desafíos éticos y sociopolíticos sustanciales que requieren un análisis filosófico y ético exhaustivo. Se debe estudiar su impacto social para evitar repercusiones negativas. Los sistemas de inteligencia artificial se están volviendo cada vez más autónomos, aparentemente racionales e inteligentes. Este desarrollo integral da lugar a numerosos problemas. Además del daño potencial y el impacto de las tecnologías de inteligencia artificial en nuestra privacidad, otras preocupaciones incluyen su

La ciencia de mala calidad detrás de la tecnología de reconocimiento emocional

https://onezero.medium.com/the-shoddy-science-behind-emotional-recognition-tech-2e847fc526a0 El reconocimiento facial no es solo para verificar la identidad de una persona. En los últimos años, los investigadores y las nuevas empresas se han centrado en otras formas de aplicar la tecnología, como el reconocimiento de emociones, que intenta leer las expresiones faciales para comprender lo que siente una persona. Por ejemplo, Find Solution AI, una empresa con sede en Hong Kong que apareció recientemente en CNN Business, vende su tecnología a escuelas y universidades, donde escanea las caras de los estudiantes y monitorea sus sentimientos en aulas virtuales. Teóricamente, sistemas como estos podrían detectar si los niños están prestando atención o expresando frustración que indica dificultad para aprender el material de la clase. Académicos y A.I. Los investigadores de ética, sin embargo, se apresuran a señalar que esta tecnología se basa en una ciencia cuestionable y que existen serias p

La ética de los algoritmos: problemas y soluciones clave

https://link.springer.com/article/10.1007/s00146-021-01154-8 La investigación sobre la ética de los algoritmos ha crecido sustancialmente durante la última década. Junto al desarrollo exponencial y la aplicación de algoritmos de aprendizaje automático, se han propuesto nuevos problemas éticos y soluciones relacionadas con su uso omnipresente en la sociedad. Este artículo se basa en una revisión de la ética de los algoritmos publicada en 2016 (Mittelstadt et al. Big Data Soc 3 (2), 2016). Los objetivos son contribuir al debate sobre la identificación y el análisis de las implicaciones éticas de los algoritmos, proporcionar un análisis actualizado de las preocupaciones epistémicas y normativas y ofrecer una guía práctica para la gobernanza del diseño, desarrollo y despliegue de algoritmos.

Robótica responsable y atribución de responsabilidad

https://link.springer.com/chapter/10.1007/978-3-030-54173-6_20 Este documento destaca la centralidad de la responsabilidad humana como base necesaria para establecer políticas y regulaciones claras sobre robótica; responsabilidad no por parte del hardware o software de un robot, sino por parte de los humanos detrás de las máquinas, aquellos que investigan y desarrollan robótica. En pocas palabras, necesitamos una robótica responsable. La robótica responsable es un término que se ha "puesto de moda" recientemente, pero aún se está desarrollando una comprensión de lo que significa la robótica responsable. A la luz de la complejidad del desarrollo (es decir, las muchas manos involucradas) y la novedad del desarrollo de robots (es decir, pocas juntas reguladoras establecidas para garantizar la responsabilidad), es necesario establecer procedimientos para asignar responsabilidades futuras entre los actores involucrados en la Desarrollo e implementación. Las tres leyes alternativas

Robótica, IA y humanidad

https://link.springer.com/book/10.1007%2F978-3-030-54173-6 Este libro de acceso abierto examina los avances recientes en cómo la inteligencia artificial (IA) y la robótica han suscitado un amplio debate sobre sus beneficios y desventajas para la humanidad. Las tecnologías emergentes tienen, por ejemplo, implicaciones en la medicina y la atención de la salud, el empleo, el transporte, la manufactura, la agricultura y los conflictos armados. Si bien se ha prestado una atención considerable a las aplicaciones de robótica / IA en cada uno de estos dominios, parece necesaria una imagen más completa de sus conexiones y las posibles consecuencias para nuestra humanidad compartida. Este volumen cubre investigación multidisciplinaria, examina las fronteras de investigación actuales en IA / robótica y los posibles impactos en el bienestar social, las relaciones entre humanos y robots, así como las oportunidades y riesgos para el desarrollo sostenible y la paz. Se abordan las dimensiones éticas y

Enfrentando las realidades de la tecnología de reconocimiento facial, Canadá

https://www.cybersecurepolicy.ca/frt-privacy-act Las instituciones federales de Canadá recopilan, utilizan y divulgan información facial de las personas. También confían cada vez más en la tecnología que utiliza esta información, en combinación con procesos automatizados de toma de decisiones, para identificar a las personas de forma única. Esto está sucediendo en Canadá hoy, sin la dirección y protección adecuadas de la Ley de Privacidad. El uso de esta tecnología plantea importantes preocupaciones de privacidad y seguridad para las personas en Canadá, incluido el potencial para permitir la vigilancia masiva y la discriminación habilitada por sistemas capacitados en conjuntos de datos que ya están imbuidos de prejuicios y sesgos. Al implementar las siguientes recomendaciones para enmendar la Ley de Privacidad, el Gobierno de Canadá puede mitigar los riesgos graves de privacidad y seguridad que enfrentan actualmente las personas en Canadá con respecto a la tecnología de reconocimiento

Por qué estaba equivocada al ser optimista sobre los robots

https://www.ft.com/content/087fce16-3924-4348-8390-235b435c53b2?segmentid=acee4131-99c2-09d3-a635-873e61754ec6 Utilice las herramientas para compartir que se encuentran a través del botón de compartir en la parte superior o lateral de los artículos. Copiar artículos para compartir con otros constituye una infracción de los términos y condiciones de FT.com y de la política de derechos de autor. Envíe un correo electrónico a licensing@ft.com para comprar derechos adicionales. Los suscriptores pueden compartir hasta 10 o 20 artículos por mes utilizando el servicio de artículos de regalo. Puede encontrar más información en https://www.ft.com/tour. https://www.ft.com/content/087fce16-3924-4348-8390-235b435c53b2?segmentid=acee4131-99c2-09d3-a635-873e61754ec6 Solía ​​ser un tecno-optimista. Pensé que una nueva ola de automatización podría liberarnos del trabajo monótono o arduo. Los almacenes minoristas en línea parecían un ejemplo perfecto. Se trataba de un sector en expansión donde los &quo

Por qué la lista de pacientes protegidos por COVID-19 podría agravar y abordar las desigualdades

  https://www.adalovelaceinstitute.org/blog/covid-19-shielded-patient-list-inequalities/ Una expansión sustancial en el número de personas a las que se pidió proteger en Inglaterra (la "lista de pacientes protegidos"), ilustra que los sistemas y tecnologías basados ​​en datos pueden ser desiguales en sus impactos y una fuerza igualadora. La incorporación de datos confidenciales (sobre la etnia de una persona, su probable experiencia de privación por ubicación, su edad y su peso) junto con datos sobre las condiciones de salud existentes conlleva nuevos riesgos (y beneficios potenciales) y plantea un mayor conjunto de desafíos relacionados con el riesgo de discriminación. impacto, al tiempo que aumenta la complejidad ética de los datos y sus usos. La lista protegida de pacientes es un registro de pacientes que se cree que tienen un alto riesgo de complicaciones por COVID-19. En vigor durante gran parte de la pandemia, se basó en gran medida en datos sobre la vulnerabilidad clín

El estudiante vigilado. Las nuevas formas de monitorear la salud y el desempeño académico no desaparecerán simplemente cuando la pandemia disminuya.

https://www.chronicle.com/article/the-surveilled-student El mensaje, incluido en un correo electrónico rutinario de planificación de otoño para estudiantes de la Universidad de Oakland, tomó a Tyler Dixon por sorpresa. Junto con el uso de máscaras y el distanciamiento social, se esperaría que los estudiantes que viven en el campus usen un “BioButton” del tamaño de una moneda pegado al pecho con adhesivo médico. Medía continuamente su temperatura, frecuencia respiratoria y frecuencia cardíaca, y les decía si habían estado en contacto cercano con un usuario de botón que había dado positivo por Covid-19. Junto con una serie de preguntas de detección diarias, el botón les permitiría saber si estaban autorizados para la clase. Dixon, un asesor senior y residente, dijo que el correo electrónico de finales de julio fue el primero que él y cualquiera de sus amigos de la universidad al norte de Detroit habían oído hablar del BioButton. “A nadie con quien hablé le gustó la idea de tener que usar

¿Qué lugar deben tener los pasaportes de la vacuna COVID-19 en la sociedad?

https://www.adalovelaceinstitute.org/summary/covid-19-vaccine-passports/ Como parte del trabajo que está haciendo el Instituto Ada Lovelace para explorar la evidencia, los riesgos y los beneficios de los pasaportes de vacunas del sector público y privado y las aplicaciones de estado de COVID, hemos convocado a un grupo de expertos para deliberar rápidamente sobre su implementación. Esta revisión resume los hallazgos y recomendaciones del grupo, presidido por el profesor Sir Jonathan Montgomery, y compuesto por expertos multidisciplinarios de los campos de inmunología, epidemiología, sociología, desarrollo internacional, ciencias del comportamiento, derecho, historia médica, salud pública, ética y diseño de sistemas técnicos. El grupo, que se reunió durante dos semanas en enero y febrero de 2021, consideró los riesgos y beneficios del posible despliegue de esquemas de certificación de vacunas digitales, y discutió la evidencia, deliberó sobre casos de uso, exploró oportunidades y riesgo

Los píxeles espía en los correos electrónicos se han vuelto endémicos

https://www.bbc.com/news/technology-56071437 El uso de tecnología de rastreo "invisible" en los correos electrónicos es ahora "endémico", según un servicio de mensajería que analizó su tráfico a pedido de la BBC. La revisión de Hey indicó que dos tercios de los correos electrónicos enviados a las cuentas personales de sus usuarios contenían un "píxel espía", incluso después de excluirlos como spam. Sus fabricantes dijeron que muchas de las marcas más importantes usaban píxeles de correo electrónico, con la excepción de las firmas de "grandes tecnologías". Los defensores de los rastreadores dicen que son una táctica de marketing común. Y varias de las empresas involucradas notaron que su uso de dicha tecnología se mencionó dentro de sus políticas de privacidad más amplias. Los píxeles de los correos electrónicos se pueden utilizar para registrar: si y cuando se abre un correo electrónico cuantas veces se abre qué dispositivo o dispositivos están i

¿Quién debería detener la IA poco ética?

https://www.newyorker.com/tech/annals-of-technology/who-should-stop-unethical-ai En ciencias de la computación, los principales medios para la investigación revisada por pares no son revistas sino conferencias, donde los artículos aceptados se presentan en forma de charlas o carteles. En junio de 2019, en una gran conferencia de inteligencia artificial en Long Beach, California, llamada Visión por computadora y reconocimiento de patrones, me detuve a mirar un póster de un proyecto llamado Speech2Face. Utilizando el aprendizaje automático, los investigadores habían desarrollado un algoritmo que generaba imágenes de rostros a partir de grabaciones de voz. Una buena idea, pensé, pero con resultados nada impresionantes: en el mejor de los casos, las caras coincidían con el sexo, la edad y la etnia de los hablantes, atributos que un oyente casual podría adivinar. Ese diciembre, vi un cartel similar en otro gran A.I. conferencia, Sistemas de procesamiento de información neuronal (Neurips), e

Una nueva técnica radical permite que la IA aprenda prácticamente sin datos

https://www-technologyreview-com.cdn.ampproject.org/c/s/www.technologyreview.com/2020/10/16/1010566/ai-machine-learning-with-tiny-data/amp/ El aprendizaje automático generalmente requiere toneladas de ejemplos. Para que un modelo de IA reconozca un caballo, debe mostrarle miles de imágenes de caballos. Esto es lo que hace que la tecnología sea computacionalmente costosa y muy diferente del aprendizaje humano. Un niño a menudo necesita ver solo unos pocos ejemplos de un objeto, o incluso solo uno, antes de poder reconocerlo de por vida. De hecho, los niños a veces no necesitan ningún ejemplo para identificar algo. Se les muestran fotos de un caballo y un rinoceronte, y se les dice que un unicornio es algo intermedio, pueden reconocer a la criatura mítica en un libro de imágenes la primera vez que la ven. Rhinocorn, un cruce entre un rinoceronte y un unicornio Hmm… ok, no del todo. MS TECH / PIXABAY Ahora, un nuevo artículo de la Universidad de Waterloo en Ontario sugiere que los modelos

Abriendo el camino a la ética en inteligencia artificial

https://link.springer.com/article/10.1007/s43681-020-00031-2 En un intento por abordar los desafíos éticos en la IA, actualmente contamos con varios marcos éticos de IA en todo el mundo, y cada día se lanzan o se desarrollan más en todo el mundo. Desde las Directrices de la Comisión Europea para una IA confiable hasta los Principios de IA de Asilomar, el mensaje suele ser similar: más transparencia y explicabilidad. Sin embargo, navegar por la amplia cantidad de recursos disponibles actualmente no es un proceso simple. Entonces, ¿cómo encontramos un terreno común en lo que respecta a la ética en la IA? En muchos aspectos, la inteligencia artificial (IA) todavía se encuentra en su juventud y los avances recientes solo han sido posibles debido a los grandes aumentos en el volumen de datos. Aunque lento en comparación con algunas de las primeras predicciones, el campo de la IA ha logrado avances sorprendentes recientemente. Muchos expertos sostienen que es probable que veamos avances sign

Inteligencia artificial y el fin del trabajo

https://www.forbes.com/sites/robtoews/2021/02/15/artificial-intelligence-and-the-end-of-work/?sh=247d445456e3  Stanford será el anfitrión de un evento el próximo mes llamado "Aumento de la inteligencia: AI empoderando a las personas para resolver desafíos globales". Este título es contundente y típico. La noción de que, en el mejor de los casos, la IA aumentará en lugar de reemplazar a los humanos se ha convertido en una narrativa omnipresente e influyente en el campo de la inteligencia artificial actual. Es una narrativa tranquilizadora. Desafortunadamente, también está profundamente equivocado. Si queremos prepararnos de manera efectiva para el impacto que la IA tendrá en la sociedad en los próximos años, es importante que seamos más claros en este tema. No es difícil entender por qué las personas son receptivas a una visión del futuro en la que el impacto principal de la IA es aumentar la actividad humana. A un nivel elemental, esta visión nos deja a los humanos en control

Tecnología de reconocimiento facial, óptica y resistencia en disturbios políticos

https://law.unimelb.edu.au/centres/caide/news,-media-and-events/caide-community-blog/always-in-focus-facial-recognition-technology,-optics-and-resistance-in-political-unrest En respuesta al uso de métodos de vigilancia facial cada vez más intensivos en datos por parte de los organismos encargados de hacer cumplir la ley, el rostro se ha empleado como un tropo político subversivo en el trabajo de activistas, artistas y poetas contemporáneos. A diferencia de la cámara CCTV, a la que se suele invocar como mecanismo de vigilancia facial, en la matriz de vigilancia contemporánea el objetivo de la vigilancia surge con frecuencia de los datos. Como Virginia Eubanks ha escrito sobre los datos faciales extraídos y analizados para identificar posibles sospechosos de delitos: `` Si la antigua vigilancia era un ojo en el cielo, la nueva vigilancia es una araña en una red digital, probando cada hebra conectada de sospechosos vibraciones »(122). En esta formulación, la vigilancia ya no es simplement