Desarrollo de una prueba de Turing para IA ética

 Los desarrolladores de inteligencia artificial siempre han tenido un aire de "Mago de Oz". Detrás de una cortina magistral, realizan hazañas asombrosas que parecen otorgar cerebros algorítmicos a los espantapájaros computarizados de este mundo.


La prueba de Turing de IA se centró en la hechicería necesaria para engañarnos y hacernos pensar que los espantapájaros podrían ser humanos de carne y hueso (si ignoramos las pajitas sueltas que brotan de sus pantalones). Sin embargo, estoy de acuerdo con el argumento expresado recientemente por Rohit Prasad, científico jefe de Amazon para Alexa, quien sostiene que el marco del "juego de imitación" de Alan Turing ya no es relevante como un gran desafío para los profesionales de la inteligencia artificial.


[También en InfoWorld: Aplicación de devops en ciencia de datos y aprendizaje automático]

Creando una nueva prueba de Turing para IA ética

Prasad señala que hacerse pasar por diálogos en lenguaje natural ya no es un objetivo inalcanzable. La prueba de Turing fue un avance conceptual importante a principios del siglo XX, cuando lo que ahora llamamos computación cognitiva y procesamiento del lenguaje natural eran tan futuristas como viajar a la luna. Pero nunca tuvo la intención de ser un punto de referencia técnico, simplemente un experimento mental para ilustrar cómo una máquina abstracta podría emular las habilidades cognitivas.


Prasad sostiene que el valor de la IA reside en capacidades avanzadas que van mucho más allá de hacerse pasar por conversaciones en lenguaje natural. Señala las capacidades bien establecidas de AI para consultar y digerir grandes cantidades de información mucho más rápido de lo que cualquier humano podría manejar sin ayuda. La IA puede procesar video, audio, imágenes, sensores y otros tipos de datos más allá de los intercambios basados ​​en texto. Puede tomar acciones automatizadas de acuerdo con las intenciones del usuario inferidas o preespecificadas, en lugar de a través de diálogos de ida y vuelta.


Es posible que podamos envolver todas estas facultades de IA en un marco más amplio centrado en la IA ética. La toma de decisiones éticas es de gran interés para cualquier persona interesada en cómo se pueden programar los sistemas de IA para evitar invadir inadvertidamente la privacidad o tomar otras acciones que transgredan los principios normativos básicos. La IA ética también intriga a los aficionados a la ciencia ficción que han debatido durante mucho tiempo si las leyes intrínsecamente éticas de la robótica de Isaac Asimov se pueden programar de manera efectiva en robots reales (físicos o virtuales).


Si esperamos que los bots impulsados ​​por inteligencia artificial sean lo que los filósofos llaman "agentes morales", entonces necesitamos una nueva prueba de Turing. Un juego de imitación centrado en la ética dependería de qué tan bien un dispositivo, bot o aplicación impulsados ​​por la inteligencia artificial puedan convencer a un humano de que sus respuestas verbales y otros comportamientos podrían ser producidos por un ser humano moral real en las mismas circunstancias.


Construyendo marcos éticos de IA para la era de la robótica

Desde un punto de vista práctico, esta nueva prueba de Turing debería desafiar a los magos de la IA no solo a otorgar a sus "espantapájaros" robóticos su inteligencia algorítmica, sino también a equipar a los "hombres de hojalata" con la empatía artificial necesaria para involucrar a los humanos en contextos éticamente enmarcados a los “leones cobardes” la eficacia artificial necesaria para lograr resultados éticos en el mundo real.


La ética es un atributo de comportamiento complicado en torno al cual desarrollar métricas concretas de rendimiento de la IA. Está claro que incluso el conjunto de puntos de referencia técnicos más completo de la actualidad, como MLPerf, sería un criterio inadecuado para medir si los sistemas de inteligencia artificial pueden imitar de manera convincente a un ser humano moral.

https://www.infoworld.com/article/3606472/developing-a-turing-test-for-ethical-ai.html

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje