Si la IA va a ayudarnos en las crisis, necesitamos otra ética

Con esta pandemia, nos encontramos de repente en una situación en la que la gente realmente habla sobre si la IA podría ser útil, si podría salvar vidas. Pero la crisis ha dejado en claro que no tenemos procedimientos éticos lo suficientemente sólidos como para que la IA se implemente de manera segura, y ciertamente no hay ninguno que pueda implementarse rápidamente.

¿Qué tiene de malo la ética que tenemos?

Pasé los últimos años revisando las iniciativas de ética de IA, analizando sus limitaciones y preguntando qué más necesitamos. En comparación con algo como la ética biomédica, la ética que tenemos para la IA no es muy práctica. Se centra demasiado en los principios de alto nivel. Todos podemos estar de acuerdo en que la IA debe usarse para bien. Pero, ¿qué significa esto realmente? ¿Y qué sucede cuando los principios de alto nivel entran en conflicto?

Por ejemplo, la IA tiene el potencial de salvar vidas, pero esto podría costar libertades civiles como la privacidad. ¿Cómo abordamos esos compromisos de manera que sean aceptables para muchas personas diferentes? No hemos descubierto cómo lidiar con los desacuerdos inevitables.


Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social