Las caras falsas creadas por la IA parecen más fiables que las personas reales

https://www.newscientist.com/article/2308312-fake-faces-created-by-ai-look-more-trustworthy-than-real-people/

La inteligencia artificial puede crear rostros humanos tan realistas que la gente no puede distinguirlos de los reales, y de hecho confía más en los rostros falsos.


Los rostros humanos ficticios generados por ordenador son tan convincentes que pueden engañar incluso a observadores entrenados. Pueden descargarse fácilmente en línea y utilizarse para estafas en Internet y perfiles falsos en las redes sociales.


"Deberíamos preocuparnos porque estos rostros sintéticos son increíblemente eficaces para fines nefastos, para cosas como el porno de venganza o el fraude, por ejemplo", dice Sophie Nightingale, de la Universidad de Lancaster (Reino Unido).


Acompáñenos en un alucinante festival de ideas y experiencias. New Scientist Live se vuelve híbrido, con un evento presencial en Manchester (Reino Unido), que también podrá disfrutar desde la comodidad de su casa, del 12 al 14 de marzo de 2022. Más información.

Los programas de IA denominados redes generativas adversariales, o GAN, pueden aprender a crear imágenes falsas que se distinguen cada vez menos de las reales, enfrentando a dos redes neuronales entre sí.


Nightingale y su colega Hany Farid, de la Universidad de California en Berkeley, pidieron a 315 participantes, reclutados en un sitio web de crowdsourcing, que dijeran si podían distinguir una selección de 400 fotos falsas de 400 fotografías de personas reales. Cada conjunto estaba formado por 100 personas de cada uno de los cuatro grupos étnicos: blancos, negros, asiáticos del este y del sur.


Este grupo tuvo una tasa de precisión del 48,2%, ligeramente peor que el azar. Un segundo grupo de 219 participantes fue entrenado para reconocer rostros generados por ordenador. Este grupo tuvo una tasa de precisión del 59%, pero esta diferencia es insignificante, dice Nightingale.


Los rostros blancos fueron los más difíciles de distinguir entre los reales y los falsos, quizá porque el software de síntesis se entrenó con un número desproporcionadamente mayor de rostros blancos.


Los investigadores también pidieron a otro grupo de 223 participantes que calificaran una selección de las mismas caras según su nivel de confianza, en una escala de 1 a 7. Según Nightingale, calificaron las caras falsas como un 8% más fiables, de media, que las caras reales, una diferencia pequeña pero significativa. Esto podría deberse a que los rostros sintéticos se parecen más a los rostros humanos "promedio", y la gente es más propensa a confiar en los rostros de aspecto típico, dice.


Más información: La IA puede detectar una cara falsa porque sus pupilas tienen bordes irregulares

Si se observan los extremos, las cuatro caras calificadas como menos fiables eran reales, mientras que las tres más fiables eran falsas.


"Necesitamos directrices éticas más estrictas y más marcos legales porque, inevitablemente, va a haber gente que quiera usar [estas imágenes] para hacer daño, y eso es preocupante", dice Nightingale.


Para reducir estos riesgos, los desarrolladores podrían añadir marcas de agua a sus imágenes para señalarlas como falsas, dice. "En mi opinión, esto ya es bastante malo. Sólo va a empeorar si no hacemos algo para detenerlo".


Referencia de la revista: PNAS, DOI: 10.1073/pnas.2120481119


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social