El peligro que supone la IA para la civilización

Se utiliza para cosas no esenciales La "inteligencia" de la IA supone un problema para la civilización. Se suele usar para cosas no esenciales, a veces egoístas. Incluso Google Maps, aunque útil, signigica que soy rastreado por mi teléfono al usarla.

La IA realmente no trabaja para el usuario. Siempre que se usa IA es a cambio de la privacidad. Que el teléfono aprenda cómo me comporto y se adelante me hace sentirme niño. Facebook etiqueta las fotos que subo sin que se lo haya pedido. ¿Me beneficia? Es poner muy bajo el listón del beneficio. El problema es el coste: un incremento en dependencia externa que básicamente nos infantiliza. la IA no está empoderando a nadie,excepto a los gobiernos y otras organizaciones que se benefician de rastrear los movimiento, aplicar las normas y tratar a las personas como meros datos.

Es interesante que cuando se automatizan cosas para objetivos no frívolos no solemos llamarlo IA. Por ejemplo los sistemas de pilotaje automático de las modernas naves Airbus son en esencia sistema ID que toman el control de los pilotos. Es una gran historia para los entusiastas de la IA, pero no se habla de ello porque no hay un mercado que se beneficie de ello. La gente no quiere oir hablar de que el MCAT está pilotado, quieren saber que el piloto controla la situación. Así que de pronto deja de ser IA, es solamente un montón de dispositivos electrónicos. Pero no hay una diferencia sustancial entre esos sistemas de aviónica y la IA de consumo, excepto que los efectos infantilizantes solo los experientan los pilotos.

¿El principal problema? No es la infantilización como tal, es el hecho de que transferimos asimétricamente poder a los propietarios de los sistemas, no a los usuarios. Los modernos sistemas de IA requieren masivas cantidades de datos. Quien los posea, también reclama la IA. Así, extrañamente, la visión Orwelliana se está convirtiendo en la historia moderna.

El problema no es que la legislación o los observadores sean suficientemente activos, el problema es que la tecnología actual sirve a los propietarios de los servidores y de big data y solo secundariamente a los usuarios. Además, la IA está dirifiendo la asimetría del poder. Hay una gran cuestión: cómo podemos disfrutar de una tecnología poderosa sin ser la herramienta de otro.

Si dispongo de una app con IA incorporada construida por mí o por un amigo a a la que nadie tiene acceso para controlarla, no será muy útil o potente. Si descargo la que ha diseñado Microsoft o Google, probablemente funcione bien, pero ellos tienen la sartén por el mango. La raón es que la app usa mis datos y una enorme cantidad de los comportamientos analizados de otras personas. Me beneficio de otros pero pierdo el control de mis datos.

No tenemos aún modelos no ligados a big data. Así que el control lo tienen los gigantes tecnológicos.

Quizás si se eliminara el adjetivo "inteligente" y se llamase simplemente algoritmos estadísticos aplicados a nuestros datos, los aspectos más tontos se eliminaría.

Los modelos actuales requieren presupuestos crecientes de forma insostenible. No obstante, el modelo actual puede lleguar a ser culturalmente corrosivo.

https://mindmatters.ai/2020/02/the-danger-ai-poses-for-civilization/

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social