Entradas

Mostrando las entradas etiquetadas como Persona Relevante

Entrevista con Mark Coeckelbergh: Ética de la inteligencia artificial

https://naukas.com/2021/03/23/entrevista-con-mark-coeckelbergh-etica-de-la-inteligencia-artificial/ Los desafíos de la inteligencia artificial exigen reflexiones morales y difícilmente se podrá articular una ética de las inteligencias artificiales sin libros y autores que la discutan críticamente. El filósofo belga  Mark Coeckelberg  acaba de publicar  Ética de la inteligencia artificial  (Cátedra, 2021), un libro claro y conciso sobre las posibilidades y los riesgos de nuestro futuro tecnológico.   ANDRÉS LOMEÑA: ¿Cree usted en una singularidad tecnológica por medio de una explosión de la inteligencia computacional? John Gray ha sido muy crítico con el transhumanismo. MARK COECKELBERG: No creo en la singularidad ni en la explosión de inteligencia. Nuestras tecnologías, incluida la inteligencia artificial, seguirán mejorando, pero los transhumanistas tienden a hablar de posibilidades que hoy por hoy son ciencia-ficción y que muy probablemente seguirán siendo cie...

Tres cuestiones (o más) a Stuart Russell

Entrevista a Stuart Russell. ¿Cómo debería un sistema de IA tomar decisiones en un escenario donde se requieren elecciones inmediatas? En cierto sentido, siempre se requieren elecciones inmediatas. Un robot (o un humano) siempre está haciendo algo, incluso si ese algo es no hacer nada. Supongo que la pregunta es abordar el problema de un robot que actúa sin la oportunidad de pedir permiso u obtener más información sobre las preferencias humanas. En tales casos, existe una compensación entre el costo potencial de la inacción y el costo potencial de hacer lo incorrecto. Supongamos que el robot está solo en casa, la casa está a punto de verse envuelta en llamas por un incendio forestal y el robot puede salvar los álbumes de fotos familiares o el jerbo de la mascota, pero no ambos. No tiene idea de cuál tiene mayor valor para la familia. Bueno, ¿qué haría alguien? ¿Cómo podemos garantizar que las preferencias se actualicen a medida que la sociedad cambia con el tiempo? ¿La IA cambiará las ...

El esfuerzo de la IA por lograr la "comprensión" y el "significado"

la tecnología de inteligencia artificial más avanzada que tenemos hoy, nuestra mejor imitación del cerebro, puede ver, en el mejor de los casos, personas y rostros, detectar géneros y objetos, y proporcionar descripciones muy básicas, como "una pareja cenando en una mesa". Esto es solo un vistazo de la capacidad de la mente humana para comprender el mundo, y cuán gran desafío sigue siendo su replicación después de seis décadas de investigación de inteligencia artificial. "Los humanos son capaces de" comprender realmente "las situaciones que encuentran, mientras que incluso los sistemas de IA más avanzados de la actualidad aún no tienen una comprensión similar a la humana de los conceptos que estamos tratando de enseñarles", escribe el científico de la computación y el investigador de IA. Melanie Mitchell en su último artículo para AI Magazine. En su artículo, Mitchell, quien también es profesora en el Instituto Santa Fe y autora de un libro reciente sobre ...

La niebla de la guerra cibernética

“En la guerra cinética, hay infraestructuras que son militares y civiles. Pero puede ser muy difícil hacer una distinción en la guerra cibernética, porque los civiles y los militares a menudo utilizan infraestructura y tecnología similares ". https://www.publictechnology.net/articles/features/fog-cyberwar Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Apps COVID-19 y sus consideraciones éticas

Luciano Floridi del Oxford Internet Institute expone de forma clara los problemas éticos que surgen con estas apps https://www.youtube.com/watch?v=vCGpvkjtRQI&feature=youtu.be Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La Cuarta revolución y la Ética de la Información

Una entrevista a Luciano Floridi. Explica lo que es la Ética Digital. Habla de la Cuarta Revolución del autoconocimiento.. Los Derechos Humanos son la base, pero hay que ver cómo se ponen en prácta El final esun poco pesimista "No estoy tan seguro de que todo el sistema cambie, al menos, no sin que ocurra un desastre real primero." https://medium.com/digitalpolicysalon/the-fourth-revolution-and-the-ethics-of-information-3eebc0d2ced8 Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

IA como medio existencial

“No podemos simplemente decir que estos desarrollos son positivos. Una nueva oportunidad con la tecnología también puede incluir la vulnerabilidad. Es por eso que los humanistas como yo necesitamos involucrarnos. Pero no solo debemos criticar, también tenemos que asumir el desafío de manera creativa. Necesitamos hablar con los investigadores de IA sobre lo que queremos hacer con la IA, qué preguntas importantes de la sociedad podemos resolver, pero también qué valores están en juego ". https://www.uu.se/en/news-media/news/article/?id=14652&typ=artikel Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Yann LeCun and Yoshua Bengio: el aprendizaje auto supervisado es clave parala inteligenci a nivel humano

Según los ganadores del Premio Turing, Yoshua Bengio y Yann LeCun, el aprendizaje auto supervisado podría conducir a la creación de una IA más parecida a la humana en su razonamiento. Bengio, director del Instituto de Algoritmos de Aprendizaje de Montreal, y LeCun, vicepresidente de Facebook y científico principal de IA, hablaron con franqueza sobre esta y otras tendencias de investigación durante una sesión en la Conferencia Internacional sobre Representación de Aprendizaje (ICLR) 2020, que tuvo lugar en línea. https://venturebeat.com/2020/05/02/yann-lecun-and-yoshua-bengio-self-supervised-learning-is-the-key-to-human-level-intelligence/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

No podemos permitirnos pensar utópicamente

Para el filósofo Luciano Floridi, es crucial comprender para qué queremos usar las nuevas tecnologías: los expertos aún no hacen suficientes preguntas éticas sobre la IA. https://www.vodafone-institut.de/aiandi/we-cannot-allow-ourselves-to-think-in-an-utopian-way/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

IA y el futuro del trabajo

Es un breve vídeo en el que la profesora Virginia Dignum explica muy sucintamente lo que es la IA, el origen de los sesgos y el impacto en el futuro del trabajo. https://youtu.be/lgAUzCTdF7M Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El próximo invierno de la IA: del mito a la realidad

Luciano Floridi hace un repaso a la historia de la IA y los varios inviernos y primaveras. En invierno se reducen las inversiones y se tranquilizan las exageradas expectativas. La complejidad creciente del mundo hace impulsa la esperanza en máquinas que nos ayuden a gestionar esa complejidad. Los marcos éticos y regulatorios pretenden prevenir un futuro donde las máquinas nos dominen o condicionen nuestra vida. La realidad es que no parece un problema a corto plazo. Durante la primavera parece haber una competición de quién cuenta la historia más grande. Durante los veranos de la IA las expectativas super infladas solamente distraen a las masas. El riesgo de retroceso es grande, la decepción negativa, y las soluciones potencialmente valiosas son desechadas. Con el invierno que viene es el momento de evitar ilusiones irrazonables y desilusiones exageradas. Un invierno de IA no es un invierno de oportunidades. Debemos preguntarnos si la IA va a reemplazar otras soluciones, a divers...

Los pioneros en gráficos por ordenador de Pixar, nuevos Premios Turing

Edwin Catmull y Patrick Hanrahan han recibido este premio por el software de renderización de gráficos 3D https://www.technologyreview.com/f/615376/pixars-computer-graphics-pioneers-have-won-the-1-million-turing-award/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La Marina de EEUU va a desplegar submarinos autónomos con capacidad de matar

Se trata del proyecto CLAWS para desplegar submarinos autónomos no tripulados. Sus torpedos serán controlados por IA sin intervención humana. Stuart Russell considera CLAWS un "proyecto peligroso" https://thenextweb.com/neural/2020/03/10/the-us-navy-is-developing-ai-powered-submarines-that-could-kill-autonomously/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

¿Está la IA sobrevalorada?

Comenta de la mano de Gary Marcus la exageración que se hace da la IA. https://www.cbc.ca/radio/thesundayedition/the-sunday-edition-for-february-23-2020-1.5468283/is-ai-overhyped-researchers-weigh-in-on-technology-s-promise-and-problems-1.5468289 por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

¿Puede la Analogía abrir la barrera del Conocimiento de la IA?

Sesión de Melanie Mitchell del Instituto Santa Fe. Comienza con una vistra general de la historia de la IA y de qué es el deep learning. Los modelos son capaces de clasificar, subtitular, jugar a juegos de ordenador de forma super humana. ¿Qué es lo que aprenden los modelos? Se entrenó un modelo para detectar si hay un animal en una foto. El modelo lo que aprendió es que si hay un animal el fondo es borroso, no que haya un animal. Correlaciones espúreas. Los modelos no ven lo que vemos los humanos. Funcionan muy bien salvo cuando cometen errores garrafales. Si en un juego se cambia algo, ya no sabe qué hacer. Las máquinas hacen cosas increíbles,pero no pueden comprender. La máquinas distinguen categorías perceptuales, no conceptos. Ante situaciones complicadas nosotros usamos analogías. Muchas veces esas analogías son recuerdos de otras situaciones similares. Muchas veces entendemos ideas abstractas con analogías con metéáforas físicas. También entendemos mediante analogías de ca...

Próxima década en IA: Cuatro pasos hacia una IA robusta

El artículo considera la historia de la IA y cual podría ser en el futuro una IA más robusta aunque no sea superinteligencia. La idea es que la IA sea más fiable, si no, no se podrá confiar en ella. La narrow AI es ampliamente conocida por resolver problemas concretos excepcionalmente bien, como jugar  al ajedrez, pero no es transferible a otros problemas, ni siquiera a otras circunstacias sin un nuevo entrenamiento. Funcionan bien en entornos controlados, pero no en el mundo fluído y variable. Una IA robusta es lo contrario a una que funciona bien en muchos casos pero también falla en otros muy similares. Desde el principio la robustez no ha sido el objetivo. Solo se ha demostrado hambrienta de datos y con escasa capacidad de generalizar. Gary Marcus y Ernie Davis denominan comprensión profunda (deep understanding) a la capacidad no solo de correlar y discernir patrones sutiles, sino también la capacidad de ante cualquier escenario poder preguntar ónde, cuándo, quién, por ...

Mark Zuckerberg: Facebook debe aceptar cierta regulación estatal

Zuckerberg reconoce cierto papel de tercero mediador de Facebook en las publicaciones y que pueden influir en elecciones, pero también su incapacidad de supervisar los 10.000M de contenidos que se publican diariamente. https://www.theguardian.com/technology/2020/feb/15/mark-zuckerberg-facebook-must-accept-some-state-regulation por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Los padres del deep learning godfathers, Bengio, Hinton, y LeCun dicen que los fallos se pueden solucionar

geoffrey Hinton, Yann LeCun y Joshua Bengio han aparecido juntos en una conferencia sobre IA en Manhattan. Han abordado el futuro de la IA. Trataron sobre la falsa identificación de objetos usando redes generativas adversarias (GAN). LeCun restó importancia a las habladurías negativas sobre el deep learning. Los tres ganadores del Premio Turing se mostraron confiados en que el deep learning continuará avanzando. El aprendizaje auto supervisado es la gran esperanza. LeCun aseguró que el sentido común surgiría de ahí, lo cual suena excesivamente optimista. Bengio hablo de que la IA será capaz de inferir efectos a partir de causas. Los tres se mostraron esperanzados de una vuelta de la IA simbólica. Noticia https://www.zdnet.com/article/deep-learning-godfathers-bengio-hinton-and-lecun-say-the-field-can-fix-its-flaws/ por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Cristos Goodrow: el algoritmo de YouTube

Goodrow lleva ocho años en TouTube. Es conocido como el hambre tras el "algoritmo de TouTube". Predecir el vídeo que encaja con cada usuario no es sencillo. La conversación con Lex Fridman trata sobre machime learning, videos virales, el usuario, que es el centro de todo. Vídeo https://www.youtube.com/watch?v=nkWmiNRPU-c por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Happy New Year and Interview with Melanie Mitchell

Conversación con Melanie Mitchell sobre sus publicaciones sobre la complejidad. https://www.complexityexplorer.org/news/120-happy-new-year-and-interview-with-melanie-mitchell You started Complexity Explorer nearly a decade ago, and your first “Introduction to Complexity” course launched in 2013. At roughly the same time, you published your hugely popular book “Complexity: A Guided Tour”. Why did you take on all of these projects at that time? Actually, my book, “Complexity: A Guided Tour”, was completed in 2008 and published in 2009. I started working on the idea for Complexity Explorer (partnering with Ginger Richardson, former SFI VP for Education) a year or so later. There were a few reasons I wanted to launch an online course platform at SFI. Many people really wanted to come to SFI’s summer school or one of our short courses, but were unable to, due to financial or other logistical reasons, and also because we simply didn’t have enough space! Ginger and I were looking for...