Google dice a la UE que los usuarios son responsables de la discriminación
Mientras la Unión Europea prepara nuevas leyes para regular la Inteligencia Artificial (IA), Google ha dicho a la Comisión de la UE que los usuarios deben "asumir la obligación de no discriminar" al utilizar aplicaciones de IA. En una reunión celebrada en marzo, los funcionarios de la Comisión preguntaron al gigante tecnológico qué responsabilidades distintas deberían tener los proveedores y los usuarios de la tecnología de IA. Los responsables del grupo de presión respondieron que son los usuarios los que deben estar "obligados a asegurarse de que entienden el sistema que utilizan y de que su uso es conforme".
Los defensores de los derechos humanos advierten que las aplicaciones de IA podrían perpetuar la discriminación social por razón de género o etnia. Recientemente, Google ha dicho públicamente que se ha abstenido de utilizar su tecnología para calificar el crédito de los consumidores y que, por el momento, no se dedicará a las aplicaciones de reconocimiento de emociones. Otras empresas tecnológicas también han expresado sus reservas sobre el sesgo algorítmico y las preocupaciones éticas en torno al uso de la IA.
En la reunión a puerta cerrada con la Comisión, Google ha expresado una opinión diferente. Los grupos de presión afirman que "no hay que exagerar los riesgos de la IA" y que los reguladores también deben tener en cuenta los "costes de oportunidad de no utilizar la IA". Advirtieron que una próxima propuesta de ley de la Comisión sobre la responsabilidad de la IA corre el riesgo de crear "desincentivos a la innovación", según las actas de la reunión publicadas en netzpolitik.org en virtud de la ley de libertad de información de la UE. Las observaciones se hacen eco de otras similares realizadas por Google en respuesta a una consulta pública de la Comisión.
Comentarios
Publicar un comentario