Debemos dejar de caminar sonámbulos hacia un estado de vigilancia


El escritor es fundador de tamizadouna empresa de medios respaldada por FT que cubre las nuevas empresas europeas

¿Hasta qué punto eres dueño de tu propia cara? ¿O huellas dactilares? ¿O el ADN? ¿Hasta qué punto confiaría en que otros utilizarían datos biométricos tan sensibles? Hacer estas preguntas es resaltar la incertidumbre y la complejidad que rodea su uso. La respuesta corta, aunque complicada, es: todo depende del contexto.

Muchas personas, incluyéndome a mí, estarían felices de permitir que investigadores médicos confiables que combaten enfermedades genéticas estudien su ADN. Pocos se oponen a que la policía utilice datos biométricos de forma selectiva para atrapar a los delincuentes. Sorprendentemente, yon 2012 detectives alemanes resolvieron 96 robos al identificar las huellas de los oídos de un hombre que había pegado la oreja a las puertas para comprobar que no había nadie en casa. La verificación de identidad en el dispositivo mediante huellas dactilares o tecnología de reconocimiento facial para un teléfono inteligente puede mejorar la seguridad y la comodidad.

Pero el alcance y la frecuencia del uso de la biometría se están disparando, mientras que la línea entre lo que es aceptable e inaceptable se vuelve más borrosa. Ya se pueden señalar usos imprudentes o malignos de la biometría. Las empresas que utilizan la tecnología y los reguladores que las supervisan tienen la responsabilidad urgente de trazar una línea divisoria más clara. De lo contrario, crecerá la preocupación de que estemos sonámbulos hacia un estado de vigilancia.

La preocupación más evidente sobre el uso de dichos datos es cómo fortalece las capacidades de vigilancia sin responsabilidad, sobre todo en China, que monitorea rigurosamente a su propia población y exporta «autoritarismo digital». Un informe de 2019 de Carnegie Endowment for International Peace encontró Tecnología de vigilancia habilitada para IA se estaba utilizando en al menos 75 de los 176 países estudiados. China fue el mayor proveedor de dicha tecnología, vendiendo a 63 países, mientras que las empresas estadounidenses vendieron a 32 países.

Pero el sector privado también está adoptando con entusiasmo el uso de datos biométricos en lugares de trabajo, tiendas y escuelas de todo el mundo. Se utiliza para verificar la identidad de los taxistas, contratar empleados, monitorear a los trabajadores de fábricas, señalar a los ladrones de tiendas y acelerar las colas para las comidas escolares.

El abogado Matthew Ryder, en un informe independiente publicado esta semana, presentó un caso poderoso de por qué los políticos deben actuar ahora para crear un marco legal más sólido para las tecnologías biométricas. (Para divulgación: el informe fue encargado por el Instituto Ada Lovelace y estoy en la junta de la organización benéfica). Hasta que eso entre en vigor, Ryder ha pedido una moratoria en el uso de la tecnología de reconocimiento facial en vivo. Parlamentarios británicos y legisladores estadounidenses han hecho llamamientos similares sin que los gobiernos nacionales respondieran mucho.

Se presentan tres argumentos sobre por qué los políticos aún no han actuado: es demasiado pronto; es muy tarde; y al público no le importa. Los tres suenan huecos.

En primer lugar, existe el caso de que una legislación prematura y proscriptiva acabará con la innovación. Pero las grandes empresas estadounidenses están cada vez más preocupadas por la proliferación indiscriminada de la tecnología biométrica y parecen temerosas de ser demandadas si las cosas salen terriblemente mal. Varios, incluidos microsoft, Facebook e IBM han dejado de implementar o vender algunos servicios de reconocimiento facial y están pidiendo una legislación más estricta. “La regulación firme ayuda a la innovación”, dice Ryder. “Puedes innovar con confianza”.

El siguiente argumento es que la biometría se está desarrollando tan rápido que los reguladores nunca podrán ponerse al día con los usos fronterizos. Es inevitable que los tecnólogos superen a los reguladores. Pero como Stephanie Hare, la autora de La tecnología no es neutral, argumenta, las sociedades pueden cambiar de opinión acerca de si las tecnologías son beneficiosas. Tomemos como ejemplo el asbesto, que se utilizó ampliamente para la prevención de incendios antes de que se conocieran sus peligros para la salud. “Lo usamos con alegría antes de arrancarlo todo. Deberíamos ser capaces de innovar y corregir el rumbo”, dice.

El argumento final es que al público no le importan los datos biométricos y los políticos tienen mayores prioridades. Esto puede ser cierto hasta que ya no lo sea. Cuando consejos de ciudadanos han estudiado y debatido el uso de datos biométricos han expresado su preocupación por su fiabilidad, proporcionalidad y sesgo y alarma por su uso como una tecnología “racista” discriminatoria. La investigación ha demostrado que el reconocimiento facial funciona con menos precisión en mujeres negras de 18 a 30 años. “Cuando ves que la tecnología se usa de manera nefasta, entonces se hace difícil que la gente la acepte de formas más útiles”, dijo un participante en un consejo de ciudadanos.

Todos los involucrados en la promoción de los usos positivos de los datos biométricos deberían ayudar a crear un régimen legal confiable. Estamos a un escándalo gigante de una temible reacción pública.



ttn-es-56