La teoría descolonial como previsión sociotécnica en inteligencia artificial

Este artículo explora el importante papel de la ciencia crítica, y en particular de las teorías poscoloniales y descoloniales, en la comprensión y configuración de los avances en curso en inteligencia artificial. La inteligencia artificial (IA) se considera uno de los avances tecnológicos que rediseñarán las sociedades modernas y sus relaciones. Si bien el diseño y la implementación de sistemas que se adaptan continuamente promete un cambio positivo de largo alcance, al mismo tiempo presentan riesgos significativos, especialmente para las personas que ya son vulnerables. Los valores y el poder son centrales en esta discusión. Las teorías descoloniales utilizan la retrospectiva histórica para explicar los patrones de poder que dan forma a nuestro mundo intelectual, político, económico y social. Al incorporar un enfoque crítico descolonial dentro de su práctica técnica, las comunidades de IA pueden desarrollar previsión y tácticas que pueden alinear mejor la investigación y el desarrollo tecnológico con los principios éticos establecidos, centrando a las personas vulnerables que continúan soportando el impacto negativo de la innovación y el progreso científico. Destacamos las aplicaciones problemáticas que son instancias de colonialidad y, utilizando una lente descolonial, presentamos tres tácticas que pueden formar un campo descolonial de inteligencia artificial: crear una práctica técnica crítica de IA, buscar la tutela y las pedagogías inversas, y la renovación de la afectividad y la afectividad. comunidades políticas Los años venideros marcarán el comienzo de una ola de nuevos avances científicos y tecnologías impulsadas por la investigación de IA, lo que incumbe a las comunidades de IA a fortalecer el contrato social a través de la previsión ética y la multiplicidad de perspectivas intelectuales disponibles para nosotros; en última instancia, respaldar tecnologías futuras que permitan un mayor bienestar, con el objetivo de beneficencia y justicia para todos.


Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje