Dos argumentos en contra de la IA amigable con los humanos
https://link.springer.com/article/10.1007/s43681-021-00051-6
Las últimas décadas han visto un aumento sustancial en el enfoque en las innumerables implicaciones éticas de la inteligencia artificial. Entre los numerosos problemas se incluye el riesgo existencial que algunos creen que podría surgir del desarrollo de la inteligencia artificial general (AGI), que es una forma hipotética de IA que es capaz de realizar las mismas hazañas intelectuales que los humanos. Esto ha llevado a una extensa investigación sobre cómo los humanos pueden evitar perder el control de una IA que es al menos tan inteligente como la mejor de nosotros. Este "problema de control" ha dado lugar a investigaciones sobre el desarrollo de una "IA amigable", que es una AGI altamente competente que se beneficiará, o al menos, no será hostil hacia los humanos. Aunque mi pregunta se centra en la inteligencia artificial, la ética y los problemas que rodean el valor de la amabilidad, quiero cuestionar la búsqueda de una inteligencia artificial amigable con los humanos (en adelante, FAI). En otras palabras, podríamos preguntarnos si las preocupaciones sobre el daño a los humanos son razón suficiente para desarrollar FAI en lugar de un AGI imparcialmente ético, o un AGI diseñado para tomar en consideración los intereses de todos los pacientes morales, tanto humanos como no humanos. Sostengo que, dado que somos capaces de desarrollar AGI, debería desarrollarse con valores imparciales y neutrales en cuanto a especies, en lugar de aquellos que priorizan la amabilidad con los humanos por encima de todo.
Comentarios
Publicar un comentario