El ABD de IA responsable

http://blog.practicalethics.ox.ac.uk/2022/03/the-abc-of-responsible-ai/

Por desgracia, no podemos dejar de lado las cuestiones de responsabilidad. Necesitamos claridad, o de lo contrario no podremos utilizar la IA de forma sostenible. La idea general sobre la sostenibilidad es la siguiente: se trata de cómo podemos satisfacer las necesidades que la gente tiene hoy sin frustrar las necesidades que existirán mañana. A menudo nos viene a la mente el medio ambiente: la sostenibilidad medioambiental se pregunta cómo podemos utilizar los recursos naturales para que nuestro planeta siga siendo un lugar habitable para las generaciones futuras.


Pero la sostenibilidad también tiene una dimensión social: la sostenibilidad social pregunta cómo podemos crear estructuras sociales que no sólo satisfagan nuestros intereses hoy, sino que también ayuden a las personas a vivir una buena vida, a respetarse mutuamente y a disfrutar de la paz mañana. Las mayores amenazas para la sostenibilidad social son la polarización, la discriminación, la desigualdad y la injusticia. Y, a estas alturas, sabemos que algunas de las últimas tecnologías tienden a crear o, al menos, a exacerbar estas amenazas.


Aquí es donde entra la responsabilidad. La idea central de la responsabilidad se encuentra en su propio nombre: la capacidad de respuesta consiste en dar respuestas o contestaciones, y se refiere a las condiciones en las que las personas están obligadas a hacerlo. Una persona responsable es aquella a la que se le puede pedir que responda, explique o justifique su conducta ante los demás. Si eres responsable en este sentido, todavía puede ser inapropiado culparte o castigarte, al menos cuando tienes una buena explicación. Pero en cualquier caso, le debes a los demás dar esa explicación y, potencialmente, también pedir disculpas.


Este tipo de responsabilidad es como una conversación. Pone en contacto a los que han causado el daño y a los que lo han sufrido. Es más, requiere que las personas se comprometan con ciertos valores morales: respetarse mutuamente como iguales morales en esa conversación, reconocer mutuamente sus puntos de vista e intereses, y tal vez incluso enmendarse al final.


Pero cuando la responsabilidad pone a la gente a conversar de esa manera, también protege contra las amenazas a la sostenibilidad social. La responsabilidad exige igualdad y, por tanto, se opone a la discriminación. La responsabilidad exige respeto mutuo y, por tanto, se opone a la injusticia. Y la responsabilidad exige conversación y por tanto se opone a la polarización.


Esto no quiere decir que la responsabilidad, como capacidad de respuesta, sea la cura mágica contra las amenazas a la sostenibilidad social. Hay más cosas que tenemos que hacer, sin duda. Pero demuestra que la responsabilidad puede desempeñar un papel importante para garantizar el uso socialmente sostenible de las nuevas tecnologías. Y por ello, no debemos tomarnos el tema a la ligera.


 


El ABC del uso responsable de la tecnología


Pero, ¿qué podemos hacer realmente al respecto? Para empezar, sugiero que debatamos y determinemos públicamente tres aspectos de la responsabilidad en el uso de las nuevas tecnologías:


Responsabilidad: de antemano, tenemos que determinar quién tiene la obligación de explicar qué y a quién. Por ejemplo, ¿qué es exactamente lo que tienen productos como Alexa que Amazon debería poder explicar a las víctimas del daño o a la sociedad en general?


Culpa: tenemos que determinar qué tipo de respuesta esperamos de las personas, y en qué condiciones los responsables deben enfrentarse a la culpa o al castigo legal. ¿Cuáles son las normas que deben cumplir los desarrolladores y usuarios de las nuevas tecnologías, y sobre quién recae la carga de la prueba?


Compensación: por último, debemos aclarar quién paga cuando las cosas van mal, ya que las nuevas tecnologías no sólo generan grandes beneficios, sino que también imponen importantes cargas y daños.


 

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje