La teoría descolonial como previsión sociotécnica en inteligencia artificial

Este artículo explora el importante papel de la ciencia crítica, y en particular de las teorías poscoloniales y descoloniales, en la comprensión y configuración de los avances en curso en inteligencia artificial. La inteligencia artificial (IA) se considera uno de los avances tecnológicos que rediseñarán las sociedades modernas y sus relaciones. Si bien el diseño y la implementación de sistemas que se adaptan continuamente promete un cambio positivo de largo alcance, al mismo tiempo presentan riesgos significativos, especialmente para las personas que ya son vulnerables. Los valores y el poder son centrales en esta discusión. Las teorías descoloniales utilizan la retrospectiva histórica para explicar los patrones de poder que dan forma a nuestro mundo intelectual, político, económico y social. Al incorporar un enfoque crítico descolonial dentro de su práctica técnica, las comunidades de IA pueden desarrollar previsión y tácticas que pueden alinear mejor la investigación y el desarrollo tecnológico con los principios éticos establecidos, centrando a las personas vulnerables que continúan soportando el impacto negativo de la innovación y el progreso científico. Destacamos las aplicaciones problemáticas que son instancias de colonialidad y, utilizando una lente descolonial, presentamos tres tácticas que pueden formar un campo descolonial de inteligencia artificial: crear una práctica técnica crítica de IA, buscar la tutela y las pedagogías inversas, y la renovación de la afectividad y la afectividad. comunidades políticas Los años venideros marcarán el comienzo de una ola de nuevos avances científicos y tecnologías impulsadas por la investigación de IA, lo que incumbe a las comunidades de IA a fortalecer el contrato social a través de la previsión ética y la multiplicidad de perspectivas intelectuales disponibles para nosotros; en última instancia, respaldar tecnologías futuras que permitan un mayor bienestar, con el objetivo de beneficencia y justicia para todos.


Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social