¿Es la IA una fuerza para el bien? Entrevista con Branka Panic, fundadora y directora ejecutiva de AI For Peace
Cada vez más, las organizaciones de muchas industrias y geografías están construyendo e implementando modelos de aprendizaje automático e incorporando inteligencia artificial en una variedad de sus diferentes productos y ofertas. Sin embargo, a medida que colocan capacidades de inteligencia artificial en los sistemas con los que interactuamos a diario, es cada vez más importante asegurarse de que estos sistemas se comporten de manera beneficiosa para el público. Al crear sistemas de IA, las organizaciones también deben considerar las implicaciones éticas y morales para asegurarse de que la IA se crea con buenas intenciones.
Los formuladores de políticas que quieran comprender y aprovechar el potencial y el impacto de la IA deben adoptar una visión holística de los problemas. Esto incluye cosas como las intenciones detrás de los sistemas de IA, así como las posibles consecuencias y acciones no deseadas de los sistemas de IA. Este puede ser especialmente el caso de las aplicaciones militares.
Un informe publicado por el AI Now Institute de la Universidad de Nueva York en diciembre de 2019 muestra que la "gran mayoría" de las declaraciones de ética de la IA dicen "muy poco sobre la implementación, la responsabilidad o cómo se mediría y aplicaría dicha ética en la práctica".
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).
Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.
Comentarios
Publicar un comentario