Derechos de los robots

https://iai.tv/articles/robot-rights-auid-1767

La ética es una empresa exclusiva. Al tratar con otros, ya sean humanos, animales o robots, inevitablemente tomamos una decisión entre quién es digno de nuestra consideración y qué sigue siendo una mera cosa para ser utilizada e incluso abusada. Estas decisiones a menudo se justifican sobre la base de alguna propiedad fundamental e intrínseca. “El enfoque estándar para la justificación del estado moral es”, como dice el filósofo Mark Coeckelbergh [2012, p. 13] explica, “para referirse a… propiedades de la entidad en cuestión, como la conciencia o la capacidad de sufrir. Si la entidad tiene esta propiedad, entonces se justifica otorgarle a la entidad un cierto estatus moral ".


El reciente debate entre Thomas Metzinger y Tim Crane proporciona una ilustración casi perfecta de este método y sus limitaciones. Ambos filósofos proceden —casi sin ser conscientes de ello— sobre la comprensión compartida o el supuesto incuestionable de que la conciencia es el factor determinante para que algo tenga estatus moral. Lo que cuestionan es si la IA podrá alguna vez alcanzar la conciencia. Metzinger dice que sí; Crane dice que no. Pero ambos están equivocados acerca de esta cuestión que determina el estatus moral. El estado moral es, como explico a continuación, una "obviedad".


Al tratar con los demás, inevitablemente tomamos una decisión entre quién es digno de nuestra consideración y qué sigue siendo una mera cosa para ser utilizada e incluso abusada.


 


Por qué propiedades como el sufrimiento o la conciencia no pueden determinar el estado moral


Hay tres problemas para decidir cuestiones de estado moral en función de criterios como el sufrimiento o la conciencia.


1) Identificación: ¿cómo se determina qué propiedades exactas son suficientes para el estatus moral? ¿Cuáles cuentan? ¿Y a quién se le ha otorgado el poder de instituir y hacer cumplir esta determinación? La historia de la filosofía moral es una lucha continua sobre este asunto con diferentes propiedades que compiten por la atención en diferentes momentos. Y en este proceso, muchas propiedades que antes parecían necesarias y suficientes, como ser blanco y hombre, han resultado ser espurias, perjudiciales o ambas cosas.


2) Definición - Cualquiera que sea la propiedad que uno elija, será difícil de definir. La conciencia, por ejemplo, es persistentemente difícil de caracterizar. El problema, como dice Max Velmans [2000, p. 5] señala, es que este término, lamentablemente, "significa muchas cosas diferentes para muchas personas diferentes, y no existe un significado central universalmente aceptado". Otras propiedades no funcionan mucho mejor. El sufrimiento es igualmente ambiguo, como demuestra Daniel Dennett en el ensayo “Por qué no se puede hacer una computadora que sienta dolor” [1998]. La razón por la que no puede hacer una computadora que sienta dolor no es una limitación tecnológica, es porque no podemos decidir qué es el dolor en primer lugar. Lo que Dennett demuestra es que el concepto mismo de dolor (lo que de alguna manera cobraría vida en la computadora) es arbitrario, inconcluso e indeterminado.


3) Detección: como si respondieran al desafío de Dennett, los ingenieros han construido mecanismos para sintetizar respuestas emocionales creíbles y sistemas capaces de dar señales de "dolor". Pero, ¿es este "dolor real" o simplemente una simulación de algo que parece dolor? (¿Le suena familiar? Este es el punto del experimento mental de la habitación china de John Searle.) Resolver esto es difícil, especialmente porque una propiedad como el sufrimiento o la experiencia consciente no es directamente observable. Esto es lo que los filósofos llaman comúnmente "el problema de otras mentes": el hecho de que todo lo que tenemos para continuar son los comportamientos observables. No podemos, como Donna Haraway [2008, p. 226] lo describe, "trepa a las cabezas de los demás para conocer la historia completa desde el interior".

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje