Los rostros blancos generados por IA parecen más «reales» que las fotos


Los retratos creados por IA son ahora tan buenos que la gente ya no puede distinguirlos de fotografías de personas reales. De hecho, los retratos de IA (al menos de personas blancas) suelen considerarse reales. Esto no está exento de problemas.

Laurens Verhagen

¿Es una foto de un ser humano o son sólo píxeles que representan a una persona ficticia? No hace mucho, cualquier ojo entrenado podía ver esto con bastante facilidad, pero ahora la tecnología es tan buena que difícilmente se puede hacer la distinción.

Y va aún más lejos: es más probable que los sujetos encuentren una foto humana de IA que una foto de una persona real. De una nueva investigación, publicada en la revista ciencia psicológicaSegún parece, el 69,5 por ciento de los retratos de IA presentados se consideran «reales».

En el caso de los retratos humanos, este porcentaje es mucho menor, poco más de la mitad. Los investigadores llaman a esto «hiperrealismo»: el hecho de que consideramos una realidad creada artificialmente como más real que la realidad física.

Un matiz importante es que investigaciones anteriores demostraron que esto sólo ocurre con retratos de personas blancas. Está relacionado con el hecho bien conocido de que la IA no está exenta de prejuicios: “Los algoritmos se entrenan desproporcionadamente con caras blancas”.

caras promedio

Y eso es problemático, dicen los investigadores: «Si los rostros de IA parecen más realistas para los rostros blancos que para otros grupos, su uso confundirá la percepción de etnicidad con la percepción de ser ‘humano'». Creen que los futuros modelos de IA deberían entrenarse mejor y de forma más equitativa.

Iris Groen, profesora asistente de neurociencia computacional en la Universidad de Ámsterdam y que no participó en esta investigación, lo considera un estudio interesante: “Lo bueno es que los investigadores están buscando una explicación psicológica para el fenómeno del hiperrealismo y a partir de ahí regresan a la informática”.

Esta explicación reside en parte en el hecho de que la gente considera realistas los rostros «normales». Esto es exactamente lo que aprenden los sistemas de IA (en este caso el algoritmo StyleGAN2): un rostro proporcional promedio en función de la gran cantidad de retratos con los que han sido entrenados.

Los retratos más a menudo se denominan «humanos». Equivocadamente en cuatro de cada cinco casos.Imagen Ciencia Psicológica

Desinformación

Los investigadores amplían los conocimientos existentes que explican cómo las personas distinguen y recuerdan las caras. «Lo interesante de este estudio es que los sujetos utilizaron esas características específicas, pero en algunos casos de manera incorrecta», dice Groen. ¿Un rostro que tenga las proporciones adecuadas? Entonces debe ser humano.

Otra conclusión llamativa del estudio es que las personas más convencidas de sus propias capacidades cometen más errores, un fenómeno en psicología conocido como efecto Dunning-Kruger. Las consecuencias podrían ser importantes: si las personas ya no pueden evaluar qué es la IA y qué es real, existe un gran riesgo de caer en la desinformación. Una idea importante, afirma Groen: “No es necesario formar a la gente para que pueda distinguir mejor entre lo real y lo falso. Sería bueno que se dieran cuenta de que su juicio no siempre es correcto”.

La propia IA puede hacer mucho mejor la distinción entre fotografías sintéticas y reales. Theo Gevers, profesor de Visión por Computador en la Universidad de Ámsterdam, desarrolló un algoritmo de detección llamado Deepfact. Esto da una evaluación correcta de al menos el 98,7 por ciento de las fotografías tomadas por StyleGan2. «Una puntuación casi perfecta», dijo Gevers.



ttn-es-31