Pon a prueba tu capacidad de identificar rostros falsos: un desafío de la IA

El periodista Stuart A. Thompson, especialista en el tema de la propagación de la información para The New York Times, publicó una nota interactiva que pone a prueba nuestra capacidad para identificar imágenes generadas con IA y nos alerta sobre las deepfakes.

Extractamos de este trabajo la sección dedicada a ejercitar la capacidad de diferenciar rostros falsos y reales.

Desde el lanzamiento público de herramientas como Dall-E y Midjourney en los últimos años, sus imágenes generadas con inteligencia artificial han producido confusión sobre noticias de última hora, tendencias de la moda y Taylor Swift.

Distinguir entre un rostro real y uno generado con IA ha demostrado ser particularmente desconcertante. Diversas investigaciones publicadas en varios estudios revelaron que los rostros de gente blanca creados con sistemas de inteligencia artificial eran percibidos como más realistas que las fotografías auténticas de gente blanca, un fenómeno denominado hiperrealismo.

Los investigadores creen que las herramientas de IA destacan en la producción de rostros hiperrealistas porque se entrenaron con decenas de miles de imágenes de personas reales. La mayoría de las imágenes en esos conjuntos de datos de entrenamiento eran de personas blancas, lo que dio como resultado rostros blancos hiperrealistas. (La dependencia excesiva de imágenes de personas blancas para entrenar la inteligencia artificial es un problema conocido en la industria tecnológica.)

Los investigadores descubrieron que la confusión entre los participantes era menos evidente cuando los rostros no eran blancos.

También se les pidió a los participantes que indicaran cuán seguros estaban de sus selecciones y los investigadores descubrieron que había una correlación entre una mayor confianza y una mayor probabilidad de equivocarse.

“Nos sorprendió mucho ver el nivel de exceso de confianza que se manifestaba”, opinó Amy Dawel, profesora titular de la Universidad Nacional de Australia, quien es autora de dos de los estudios. “Señala los estilos de pensamiento que nos hacen más vulnerables en internet y más vulnerables a la desinformación”, agregó.

La idea de que los rostros generados con IA puedan considerarse más auténticos que los de las personas reales sorprendió a expertos como Dawel, quien teme que las falsificaciones digitales puedan contribuir a la difusión de mensajes falsos y engañosos en línea.

Los sistemas de inteligencia artificial habían podido producir rostros fotorrealistas durante años, aunque solía haber signos reveladores de que las imágenes no eran reales. Los sistemas de inteligencia artificial tenían dificultades para crear orejas que parecieran imágenes reflejadas la una de la otra o, por ejemplo, ojos que vieran en la misma dirección.

Sin embargo, a medida que los sistemas han avanzado, las herramientas han mejorado la creación de rostros.

Según los investigadores, los rostros hiperrealistas utilizados en los estudios tendían a ser menos distintivos y se apegaban tanto a las proporciones promedio que no despertaban sospechas entre los participantes. Y, cuando los participantes veían fotografías reales de personas, parecían fijarse en rasgos que se alejaban de las proporciones promedio —como una oreja deforme o una nariz más grande de lo normal— y los consideraban una señal de participación de la IA.

Las imágenes del estudio provienen de StyleGAN2, un modelo de imágenes entrenado en un repositorio público de fotografías con un 69 por ciento de rostros blancos.

Los participantes en el estudio afirmaron que se basaron en algunos rasgos para tomar sus decisiones, como cuán proporcionales eran los rostros, la apariencia de la piel, las arrugas y los rasgos faciales como los ojos.

Puedes desafiarte en https://www.nytimes.com/es/interactive/2024/02/02/espanol/inteligencia-artificial-como-detectar.html?smid=url-share

Comparte esta noticia
Abrir chat
Hola
¿En qué podemos ayudarte?