Los peligros de tratar a la IA como un dios

https://www.newscientist.com/article/2303858-beth-singler-interview-the-dangers-of-treating-ai-like-a-god/

Nos estamos acostumbrando a la idea de que la inteligencia artificial influya en nuestra vida cotidiana, pero para algunas personas es una tecnología opaca que supone más una amenaza que una oportunidad. La antropóloga Beth Singler estudia nuestra relación con la IA y la robótica y sugiere que la falta de transparencia que hay detrás de ella lleva a algunas personas a elevar la IA a una figura misteriosa parecida a la deidad.


"La gente puede hablar de ser bendecida por el algoritmo", dice Singler, pero en realidad probablemente se trata de una decisión muy distinta que se toma a nivel corporativo. En lugar de temer una rebelión de los robots o una versión divina de la IA que nos juzgue, dice a Emily Bates, deberíamos identificar y ser críticos con quienes toman las decisiones sobre cómo se utiliza la IA. "Cuando el miedo se vuelve demasiado absorbente y te distrae de esas preguntas, creo que es una preocupación", dice Singler.


Emily Bates: Usted se describe como alguien que "piensa en lo que los humanos pensamos sobre las máquinas que piensan". ¿Puede explicar qué quiere decir con eso?

Beth Singler: Soy antropóloga de la IA, es decir, estudio a los seres humanos para tratar de entender el impacto de la IA en sus vidas. Como campo, implica muchos aspectos diferentes de la tecnología, desde el reconocimiento facial, los sistemas de diagnóstico, los sistemas de recomendación, y para el público en general, todo ese tipo de detalles quedan subsumidos en este título de IA. [Y no se trata sólo de los simples usos de la IA, sino de cómo se imagina que será, lo que también refleja lo que pensamos como el futuro de la IA en términos de cosas como robots, rebeliones de robots, máquinas inteligentes que toman el control.


¿Hay algo que deba preocuparnos de la IA? ¿Existen prejuicios arraigados?

Todo lo que creamos como humanos refleja nuestros contextos, nuestra cultura, nuestros intereses, y cuando se trata de sistemas algorítmicos de toma de decisiones, los datos que decidimos introducir en ellos conducen a determinados resultados. Podemos decir: "basura que entra, basura que sale". Pero también debemos tener cuidado de no personificar tanto a la IA que decidamos que tiene una capacidad de acción que en realidad no tiene. Tenemos que tener muy claro que siempre hay humanos en el bucle.


¿Por qué pensamos que si una IA se vuelve poderosa, querrá gobernarnos y ponernos bajo la bota?

La mayoría de las veces viene de nuestras suposiciones sobre cómo tratamos a los demás. Cuando [las civilizaciones occidentales] se extendieron por el mundo y se encontraron con culturas indígenas, no las tratamos necesariamente bien, y podemos ver este mismo tipo de cosas en aumento. Si nos consideramos la especie más inteligente del planeta y hemos destruido el medio ambiente y hemos puesto en peligro a los animales, ¿por qué no va a hacer lo mismo con nosotros una inteligencia superior a la nuestra? O si consideramos que la distancia entre nosotros y las hormigas es equivalente a la distancia entre una superinteligencia y nosotros, entonces tal vez no le importe tanto. Va a reaccionar de una manera particular beneficiosa para sí misma, pero que podría no ser tan beneficiosa para los humanos.



¿Cree que el miedo a la IA está bien fundado? ¿Los robots van a tomar el control?

Creo que es más interesante que nos sigamos haciendo esa pregunta, que sigamos volviendo a esta narrativa del miedo, que nos preocupen las cosas que estamos creando, cómo podrían ser como nosotros en términos de inteligencia, pero también cómo podrían ser como nosotros en términos de nuestros rasgos malos, como nuestra rebeldía o nuestro egoísmo o violencia. Creo que muchas veces viene de nuestra sensación de que sólo debería haber mentes en ciertos lugares. Por eso nos preocupamos mucho cuando vemos algo que se comporta como un humano y que tiene el mismo nivel de inteligencia o incluso la percepción de sensibilidad en un lugar donde no lo esperamos.


Más información: ¿Me quitarán el trabajo los robots? No, pero lo romperán en pedacitos

¿A qué distancia estamos, y cómo sabremos cuando hayamos creado una máquina que tenga el mismo nivel de inteligencia que nosotros?

Todo se reduce a lo que realmente concebimos como inteligencia y a cómo describimos el éxito de la IA. Así que durante mucho tiempo, desde la propia concepción del término inteligencia artificial, se trata de ser muy bueno en la realización de tareas simples, tareas limitadas en un dominio muy simplista. Y luego, con el tiempo, esos dominios se vuelven más complicados, pero aún así, se trata de tener éxito. Así que toda la historia de los juegos de ordenador, por ejemplo, desde los simples tableros de tres en raya y el ajedrez, hasta el Go y el Starcraft II, es un desarrollo, pero sigue enmarcado en torno al éxito y el fracaso. Y tenemos que preguntarnos: ¿es eso lo que creemos que es la inteligencia? ¿Es la inteligencia ser bueno en los juegos de esa naturaleza?



*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social