Un motor de búsqueda de rostros públicos resolvió un caso de la RAF de treinta años de antigüedad. ¿Cómo es eso posible?


Agentes custodian la entrada de la casa donde fue arrestada Daniela Klette en Berlín.Imagen Christian Mang / Reuters

¿Qué pasó?

Daniela Klette, asociada con los ataques de la fracción del Ejército Rojo, fue arrestada por la policía treinta años después, la semana pasada en Berlín. El periodista canadiense Michael Colborne logró localizarla a finales del año pasado. solo tenia ahi media hora necesario para.

Encontró fotos de ella en el sitio web de un estudio de capoeira germano-brasileño en Berlín, con la ayuda de PimOjos, un motor de búsqueda de caras. Un portavoz de la policía alemana niega que se haya utilizado PimEyes, pero se dice que se utilizó «otro software».

Sobre los autores
Laurens Verhagen es editor científico de de Volkskrant. Escribe sobre tecnología y el impacto de la inteligencia artificial en la sociedad. Pieter Sabel es periodista de investigación en el equipo editorial de datos de de Volkskrant. Crea historias basadas en el análisis de fuentes públicas como redes sociales e imágenes de satélite.

¿Cómo funciona este tipo de software?

Gracias a la IA, PimEyes puede revelar la identidad de las personas en una fotografía. Esto se logra comparando cualquier instantánea aleatoria con imágenes de una extensa base de datos.

La tecnología es muy buena para comparar imágenes (diferentes) de la misma persona, incluso cuando las personas no verán fácilmente una similitud. Otro qué el búsqueda inversa de imágenes PimEyes de Google no analiza similitudes exactas basadas en la composición y el color, sino en una gran cantidad de características de las caras.

«Todo el mundo piensa inmediatamente en el tamaño de los ojos, o en la distancia entre la nariz y los ojos, pero es mucho más abstracto y complejo que eso», explica Luuk Spreeuwers, profesor asociado de visión por ordenador y biometría en la Universidad de Twente. El sistema ha aprendido a destilar esas características durante el proceso de formación.

El resultado de este enfoque llamado de aprendizaje profundo es «a veces terriblemente bueno», afirma Spreeuwers. De esta manera es posible hacer una combinación entre una fotografía neutra y nítida en blanco y negro y una instantánea en color vaga que muestra a alguien con una gran sonrisa, gafas de sol y una gorra extraña.

¿Qué tan bien funciona?

Es así de simple: ingresas una foto y el software busca en su base de datos de millones de imágenes de la Internet pública. Esto sucede muy rápidamente y los resultados a veces son inimaginables. Por ejemplo, basándose en una fotografía policial recientemente distribuida, se puede encontrar a un sospechoso en una fotografía general poco clara de los asistentes a una conferencia de hace años.

La empresa con sede en Polonia afirma enfáticamente que su producto no está destinado a rastrear personas. PimEyes tampoco da nombres a las imágenes, defendió al director general ocurrió en octubre del año pasado. Pero es muy fácil descubrirlo por ti mismo.

Según PimEyes, el abuso no es tan grave, pero hay muchos ejemplos inquietantes. Por ejemplo, un hombre encontró los nombres y direcciones de actrices porno que trabajaban sólo bajo sus seudónimos, describió el periodista Kashmir Hill de Los New York Times en su libro Tu cara es nuestra ahora. Hay más empresas activas con este tipo de tecnología. El más conocido es Clearview AI. A diferencia de PimEyes, este también tiene imágenes de las redes sociales.

¿La policía holandesa también utiliza este tipo de software?

La policía desarrolló su propio sistema, llamado Catch. El funcionamiento es básicamente el mismo que con Clearview o PimEyes: introduce una foto y el sistema comprueba si los rasgos faciales coinciden con las fotos de la base de datos. Sin embargo, también existen diferencias y tienen que ver con el tamaño de ese archivo de datos.

Mientras que Clearview puede extraer miles de millones de imágenes, Catch tiene que conformarse con unos pocos millones de fotografías. Estas no han sido extraídas de Internet, sino que provienen de personas que fueron fotografiadas en una comisaría de policía en los Países Bajos. Entonces de los sospechosos.

Se sabe que Clearview ha sido probado por varias fuerzas policiales de todo el mundo. Los Países Bajos dicen que no es uno de ellos, aunque la fuerza nacional alguna vez solicitó una cuenta de prueba.

¿Cuáles son los peligros?

La tecnología de reconocimiento facial ofrece nuevas posibilidades sin precedentes tanto a los ciudadanos como a los investigadores, pero también es controvertida debido a sus peligros. Independientemente de la cuestión de si está legalmente permitido crear una base de datos con datos personales, los defensores de la privacidad llevan tiempo señalando que, en principio, no es deseable crear una sociedad de vigilancia. En una sociedad así nadie puede moverse de forma anónima, ni en línea, ni tampoco en el mundo fuera de línea.

Spreeuwers también señala las imperfecciones técnicas: «Aunque a menudo es impresionante lo que muestra el software de reconocimiento facial, todavía se producen errores con regularidad». Un ejemplo reciente es el error cometido por el software de reconocimiento facial al identificar a los participantes en una manifestación climática en 2022 en Schiphol. Habrían sido reconocidos, pero ese día no estaban en Schiphol. El Ministerio Público finalmente pidió disculpas por esto.

«La principal desventaja de este tipo de redes de aprendizaje profundo es que no sabemos realmente cómo llegan a sus conclusiones», afirma Spreeuwers. Es la razón por la que los investigadores intentan abrir parcialmente la caja negra para que quede más claro cómo funcionan los sistemas. Este es también un requisito de la nueva legislación europea sobre IA.



ttn-es-23