La regla Shibboleth para los agentes artificiales

https://hai.stanford.edu/news/shibboleth-rule-artificial-agents

Imagina que estás al teléfono con un cobrador imperioso y desagradable. Lo sabe todo sobre su historial financiero, pero no se compadece de su situación. A pesar de tus quejas cada vez más frenéticas, se limita a ofrecerte un menú de opciones de pago poco atractivas. ¿Calmaría su ira si supiera de forma concluyente que no es un ser humano hostil, sino simplemente un robot encargado de ofrecerle una serie de opciones fijas? ¿Querrías tener el poder de averiguar si era humana?


Nos adentramos rápidamente en una era en la que los agentes artificiales capaces de comunicarse de forma sofisticada estarán por todas partes: cobrando deudas, dando consejos e incitándonos a tomar determinadas decisiones. Por ello, cada vez será más difícil distinguir a los humanos de las IAs en las conversaciones o en los intercambios escritos. Nos preocupa que esto constituya un cambio importante en la vida social y represente una grave amenaza para aspectos fundamentales de nuestra sociedad civil. 


Para ayudar a preservar la confianza y promover la responsabilidad, proponemos la regla del shibboleth para los agentes artificiales: Toda IA autónoma debe identificarse como tal si se lo pide cualquier agente (humano o no).


El caso de Google Duplex

En mayo de 2018, Google fue noticia por las demostraciones de Google Duplex, un asistente virtual que puede mantener conversaciones realistas por teléfono en un puñado de escenarios cotidianos como la programación de citas. Una característica llamativa de Duplex es su uso de pausas rellenas (por ejemplo, "um" y "uh"). Google lo describió como parte de "sonar natural". Otros lo interpretaron como "suplantación humana". En las pruebas realizadas por el New York Times en 2019, el engaño parecía ser más profundo: Duplex reivindicó su herencia irlandesa y negó explícitamente ser un robot. The Verge informó sobre pruebas similares y descubrió que las personas fueron engañadas rutinariamente para pensar que Duplex era un humano.


Lea lo relacionado: Cuando los agentes artificiales mienten, difaman y defraudan, ¿quién tiene la culpa?


 


Cuando Duplex hizo su debut, fue recibido inmediatamente con preocupaciones sobre cómo podría remodelar nuestra sociedad. Tres años después, Duplex está disponible en numerosos países y en 49 estados de EE.UU., y al parecer funciona de forma más autónoma que nunca.


Y Google no es la única empresa que experimenta con bots cada vez más realistas para interactuar con los clientes. En un futuro próximo, usted se preguntará: ¿Estoy recibiendo consejos médicos de un médico o de un bot? ¿El aula online de mi hijo está formada por profesores o por IAs? ¿Es mi colega en la llamada o una simulación? A medida que las IAs se vuelvan más hábiles, se volverán irresistibles para numerosas organizaciones, como una forma de proporcionar experiencias consistentes y controladas a las personas a un coste muy bajo.


Ahora está muy claro que una conversación sostenida y coherente por parte de una IA no implica que ésta tenga un conocimiento profundo de la experiencia humana, ni siquiera restricciones sensatas para evitar comportamientos problemáticos. Esta combinación de rasgos podría convertir a los agentes de la IA en actores sociales extremadamente problemáticos. La historia del test de Turing demuestra que los humanos no son capaces de distinguir de forma fiable a los humanos de las IAs, incluso cuando se les pide específicamente que lo hagan, e incluso cuando las IAs no son especialmente sofisticadas. Investigaciones más recientes con un modelo lingüístico de alto rendimiento (GPT-3) sugieren que las personas no pueden distinguir el texto generado por el modelo del texto escrito por humanos sin un entrenamiento especial. 

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje