La importancia de la responsabilidad en la ética de la IA

https://www.siliconrepublic.com/machines/ai-ethics-eu-regulation-joanna-j-bryson

La experta en ética de la IA Joanna J Bryson habló con Siliconrepublic.com sobre los retos de la regulación de la IA y por qué hay que seguir trabajando.


A medida que la IA se convierte en una parte más importante de la sociedad, la ética que rodea a esta tecnología requiere un mayor debate, ya que hay que tener en cuenta todos los aspectos, desde la privacidad y la discriminación hasta la seguridad humana.


En los últimos años ha habido varios ejemplos que han puesto de manifiesto los problemas éticos de la IA, como una biblioteca de imágenes del MIT para entrenar la IA que contenía términos racistas y misóginos y el controvertido sistema de puntuación de créditos en China.


En los últimos años, la UE ha dado pasos conscientes para abordar algunos de estos problemas, sentando las bases para una regulación adecuada de la tecnología.


Sus propuestas más recientes revelan planes para clasificar las diferentes aplicaciones de IA en función de sus riesgos. Se introducirán restricciones a los usos de la tecnología que se consideren de alto riesgo, con posibles multas en caso de infracción. Las multas podrían ser de hasta el 6 por ciento de la facturación global o de 30 millones de euros, dependiendo de lo que sea más alto.


Pero la vigilancia de los sistemas de IA puede ser un campo complicado.


Joanna J Bryson es profesora de ética y tecnología en la Hertie School of Governance de Berlín, cuya investigación se centra en el impacto de la tecnología en la cooperación humana, así como en la gobernanza de la IA y las TIC. También es ponente en EmTech Europe 2021, que se celebra actualmente en Belfast, así como en línea.


Bryson es licenciada en psicología e inteligencia artificial por la Universidad de Chicago, la Universidad de Edimburgo y el MIT. Fue durante su estancia en el MIT, en los años 90, cuando empezó a captar realmente la ética en torno a la IA.


"Me di cuenta de que la gente era muy rara con los robots. Pensaban que si el robot tenía forma de persona, tenían una obligación moral con él. Y esto era en el MIT y el robot ni siquiera funcionaba y yo me decía: '¿Qué está pasando?

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social