Más allá del individuo: gobernar el daño social de la IA

https://policyreview.info/articles/analysis/beyond-individual-governing-ais-societal-harm

En este artículo, distingo tres tipos de daños que pueden surgir en el contexto de la inteligencia artificial (IA): daños individuales, daños colectivos y daños sociales. El daño social suele pasarse por alto, pero no es reducible a los dos primeros tipos de daño. Además, los mecanismos para hacer frente a los daños individuales y colectivos provocados por la IA no siempre son adecuados para contrarrestar los daños sociales. En consecuencia, el análisis de las lagunas del marco jurídico actual de la IA por parte de los responsables políticos no sólo corre el riesgo de ser incompleto, sino que las propuestas de nueva legislación para colmar estas lagunas también pueden proteger inadecuadamente los intereses de la sociedad que se ven perjudicados por la IA. Al conceptualizar el daño social de la IA, sostengo que es necesario un cambio de perspectiva más allá del individuo, hacia un enfoque regulador de la IA que aborde sus efectos en la sociedad en general. Basándome en un ámbito jurídico destinado específicamente a proteger un interés social -el derecho medioambiental-, identifico tres mecanismos "sociales" que los responsables políticos de la UE deberían tener en cuenta en el contexto de la IA. Se trata de (1) mecanismos de supervisión pública para aumentar la responsabilidad, incluidas las evaluaciones de impacto obligatorias con la oportunidad de proporcionar información a la sociedad; (2) mecanismos de supervisión pública para garantizar la recopilación y difusión de información independiente sobre el impacto social de la IA; y (3) la introducción de derechos procesales con una dimensión social, incluido el derecho de acceso a la información, el acceso a la justicia y la participación en la toma de decisiones públicas sobre la IA, independientemente de la demostración del daño individual. Por último, considero hasta qué punto la nueva propuesta de reglamento sobre IA de la Comisión Europea tiene en cuenta estos mecanismos, antes de ofrecer unas observaciones finales.

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social