Si la IA va a ayudarnos en las crisis, necesitamos otra ética

Con esta pandemia, nos encontramos de repente en una situación en la que la gente realmente habla sobre si la IA podría ser útil, si podría salvar vidas. Pero la crisis ha dejado en claro que no tenemos procedimientos éticos lo suficientemente sólidos como para que la IA se implemente de manera segura, y ciertamente no hay ninguno que pueda implementarse rápidamente.

¿Qué tiene de malo la ética que tenemos?

Pasé los últimos años revisando las iniciativas de ética de IA, analizando sus limitaciones y preguntando qué más necesitamos. En comparación con algo como la ética biomédica, la ética que tenemos para la IA no es muy práctica. Se centra demasiado en los principios de alto nivel. Todos podemos estar de acuerdo en que la IA debe usarse para bien. Pero, ¿qué significa esto realmente? ¿Y qué sucede cuando los principios de alto nivel entran en conflicto?

Por ejemplo, la IA tiene el potencial de salvar vidas, pero esto podría costar libertades civiles como la privacidad. ¿Cómo abordamos esos compromisos de manera que sean aceptables para muchas personas diferentes? No hemos descubierto cómo lidiar con los desacuerdos inevitables.


Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje