IA veraz: desarrollar y gobernar una IA que no mienta

https://www.lesswrong.com/posts/aBixCPqSnTsPsTJBQ/truthful-ai-developing-and-governing-ai-that-does-not-lie

En muchos contextos, la mentira -el uso de falsedades verbales para engañar- es perjudicial. Aunque la mentira ha sido tradicionalmente un asunto humano, los sistemas de IA que hacen declaraciones verbales sofisticadas son cada vez más frecuentes. Esto plantea la cuestión de cómo deberíamos limitar el daño causado por las "mentiras" de la IA (es decir, las falsedades que se seleccionan activamente). La veracidad humana se rige por las normas sociales y por las leyes (contra la difamación, el perjurio y el fraude). Las diferencias entre la IA y los seres humanos ofrecen la posibilidad de establecer normas de veracidad más precisas para la IA y de que estas normas aumenten con el tiempo. Esto podría aportar importantes beneficios a la episteme pública y a la economía, y mitigar los riesgos de los peores casos de IA. 


El establecimiento de normas o leyes sobre la veracidad de la IA requerirá un trabajo importante para


Identificar normas claras de veracidad;

crear instituciones que puedan juzgar el cumplimiento de esas normas; y

desarrollar sistemas de IA que sean robustamente veraces.

Nuestras propuestas iniciales para estas áreas incluyen


una norma para evitar las "falsedades negligentes" (una generalización de las mentiras que es más fácil de evaluar);

instituciones que evalúen los sistemas de IA antes y después de su implantación en el mundo real

entrenar explícitamente a los sistemas de IA para que sean veraces mediante conjuntos de datos curados y la interacción humana.

Una posibilidad preocupante es que los mecanismos de evaluación de eventuales normas de veracidad sean capturados por intereses políticos, lo que llevaría a una censura y propaganda perjudiciales. Para evitarlo, habrá que prestar mucha atención. Y dado que la escala de los actos de habla de la IA podría crecer drásticamente en las próximas décadas, las primeras normas de veracidad podrían ser especialmente importantes debido a los precedentes que sientan.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social