‘¡Mamá! ¡Ayuda! ¿Puedes transferir dinero rápidamente?


Jennifer DeStefano acaba de aparcar su coche cuando suena su teléfono. Es una tarde de viernes de enero en Scottsdale, Arizona. Cuando DeStefano sale del auto, mira la pantalla. Un número desconocido. Habla por teléfono con su hija Briana, de quince años, que está entrenando para una carrera de esquí en las montañas al norte de Scottsdale. DeStefano pone su teléfono en altavoz.

“¡Mamá!”, dice Briana. “¡Ha sucedido algo terrible!”
«¿Qué has hecho? ¿Qué está pasando?»

En ese momento suena una profunda voz masculina.

«¡Establecer! ¡Volver!»
«Espera, espera», dice DeStefano. «¡¿Qué es?!»

«Escuchar. Tengo a tu hija», dice el hombre. Exige que DeStefano transfiera 50.000 dólares inmediatamente. «De lo contrario, atiborraré a tu hija de drogas y la arrojaré al otro lado de la frontera, en México».

DeStefano apaga el altavoz de su teléfono. Ella mira alrededor del estacionamiento presa del pánico y grita pidiendo ayuda. Los transeúntes entran corriendo. Uno de ellos llama al número de emergencias 911.

La empleada le dice a DeStefano que probablemente sea víctima de una «IAestafa‘. Algo que, afirma el empleado del centro de emergencias, está sucediendo con más frecuencia últimamente.

DeStefano sólo se tranquiliza cuando, a través del teléfono de un transeúnte, habla por teléfono con su marido, que está con su hija. Ella se desconecta del estafador. Ella nunca transfiere el dinero.

“La voz de mi hija sonaba tan real. No fue una grabación. No, fue una conversación real», dice en una conversación telefónica con NRC. «Ella lloró como lloraría mi hija».

Clonar voz con una aplicación

Jennifer DeStefano es una de las muchas víctimas estadounidenses de clonación de voz, la forma más nueva de estafa en línea. Los delincuentes imitan una voz utilizando inteligencia artificial (IA) y luego usan esa voz para animar a un amigo o familiar a transferir dinero. No hay cifras exactas, pero en Estados Unidos el número de historias sobre víctimas de clonación de voces está aumentando rápidamente. En los Países Bajos, según informa la policía, todavía no se conocen casos.

Eso es cuestión de tiempo. Debido a los rápidos avances en la tecnología de inteligencia artificial, la clonación de voces se está volviendo cada vez más fácil y económica. La empresa de audio estadounidense ElevenLabs, una de las pioneras en esta tecnología, afirma que basta un minuto de grabación para realizar un clon. Desde la semana pasada esto es posible en veintiocho idiomas, incluido el holandés.

https://twitter.com/StijnBz/status/1694307778955735205

La clonación de voz puede tener grandes aplicaciones, afirman las empresas especializadas en ella. Piense en los turistas que pueden hacerse entender en todas partes durante sus vacaciones, con su propia voz. Pacientes con ELA que pueden volver a utilizar la voz. Las voces originales de personajes históricos que se pueden utilizar en juegos, películas o audiolibros.

Pero la clonación de voces también implica enormes riesgos. Casi inmediatamente después llegó el lanzamiento de la aplicación ElevenLabs. audio falso en línea en el que la actriz Emma Watson leyó mi lucha. El servicio de streaming Spotify se dedica a eliminar canciones de músicos cuyas voces han sido copiadas sin permiso. Los opositores tanto de Joe Biden como de Donald Trump hacen vídeos falsos y convincentes en los que ponen palabras en boca de los políticos estadounidenses. Y con la tecnología, los ciberdelincuentes consiguen una nueva arma muy convincente para extorsionar a los ciudadanos.

“Vivimos en una época en la que no se puede confiar en los mensajes, los vídeos y ahora las voces. Incluso de las personas más cercanas a ti”, dice Jennifer DeStefano. «No penséis: esto no me pasará a mí».

‘Fraude de amigo necesitado’

El comedor de la jefatura de policía de Ámsterdam, a mediados de agosto. Manon den Dunnen, especialista estratégica digital de la policía, levanta su taza de café vacía de la mesa. “Tengo esta copa. Puedo agarrarlo. Puedo beber de él. Entonces él existe”, dice. “Así es como funciona nuestro cerebro. Confiamos en lo que podemos observar”.

Por eso Den Dunnen está muy preocupado por las consecuencias de la clonación de voces. Nuestra comunicación a través del teléfono o la pantalla de la computadora pasa a través de un “filtro digital, que determina lo que ves y oyes”, dice Den Dunnen. “Cuando llamas, en realidad no tienes contacto directo con nadie. No estás frente a él o ella, por lo que debes darte cuenta de que lo que estás escuchando puede haber sido manipulado. Eso es muy difícil de comprender”.

Den Dunnen conoce las historias de Estados Unidos, como la de Jennifer DeStefano. Según ella, el fraude con la clonación de voz pronto se convertirá también en víctimas holandesas. Especialmente ahora que el software también está disponible en una aplicación lista para usar en holandés.

Los ciberdelincuentes tienen a su disposición una nueva arma muy convincente para extorsionar a los ciudadanos

Luego se trata de lo que la policía llama «fraude de amigo en caso de emergencia», donde alguien se hace pasar por un supuesto conocido y pide que le transfieran dinero. Pero Den Dunnen también espera un aumento del «fraude de directores ejecutivos». En esta forma de estafa, se suplantan a los ejecutivos y se defrauda a las empresas por cantidades a veces enormes. Los ciberdelincuentes combinan diferentes técnicas: irrumpen en el correo electrónico de alguien y luego llaman a sus colegas con una voz clonada.

En enero de 2020, un banco de los Emiratos Árabes Unidos perdió 35 millones de dólares después de que un empleado de Hong Kong transfiriera grandes cantidades a varias cuentas. Pensó que su jefe, quien supuestamente lo llamó y también le envió correos electrónicos, le había dicho que lo hiciera. Este robo a un banco es, hasta donde sabemos, el más grande hasta la fecha en el que se ha utilizado la clonación de voz.

«Se vuelve mucho más fácil», dice Den Dunnen. “Y cuando pienso en las víctimas y veo cuánto costará esto a la capacidad policial adicional, me preocupa seriamente”.

‘Imprudente’

¿Qué se puede hacer al respecto? Hasta que los gobiernos nacionales elaboren una buena legislación sobre IA, las empresas de clonación de voz pueden hacer lo que quieran. Aunque las propias empresas dicen que hacen todo lo posible para evitar un mal uso de su tecnología.

Después de las críticas a la primera versión de la aplicación, ElevenLabs decidió poner su software detrás de un muro de pago, con la esperanza de disuadir a los estafadores (una suscripción cuesta 5 dólares al mes). La compañía también lanzó un herramientas que cualquiera puede detectar si el audio proviene de ElevenLabs. Según la empresa, estas medidas deberían contribuir a crear «un panorama mediático seguro».

Den Dunnen reacciona con escepticismo cuando se entera. Las empresas emergentes no deberían comercializar su software en absoluto si se puede abusar tanto de él, afirma. «Estas empresas primero dejan que la gente experimente con esto y sólo ajustan sus productos después de que los incidentes hayan sido ampliamente reportados en la prensa», dice Den Dunnen. “Entonces pienso: pensemos en las víctimas. Es realmente imprudente».

Ilustración Madera Sommerdijk

Y por eso, hasta que exista una buena legislación, las empresas y los ciudadanos deben armarse contra los estafadores. En mayo, el Senado de Estados Unidos pidió a los altos ejecutivos de los seis bancos más grandes de Estados Unidos que tomaran medidas. Entre otras cosas, comprando un software especial que pueda reconocer voces.

Según Manon den Dunnen, ésta no es la solución. Estos sistemas de votación no siempre seleccionan clones de voz de IA, por ejemplo las autoridades fiscales australianas experimentado. Ella aboga por medidas de seguridad adicionales, como la autenticación de dos factores, “para que los sistemas no sólo sean accesibles con datos biométricos”, dice Den Dunnen.

Espera especialmente que los directivos planteen el tema en el lugar de trabajo. Y llegar a buenos acuerdos entre ellos. Para que todos en el lugar de trabajo sepan qué preguntas de control hacer si el jefe le pide por teléfono o correo electrónico que transfiera dinero.

¿Y qué puedes hacer como ciudadano si tu hijo llama y de repente necesita dinero? ¿Todas las familias en los Países Bajos tienen que ponerse de acuerdo sobre una palabra clave, como Fraudehelpdesk? recomendado recientemente? «No es una buena idea, porque una palabra clave también es fácil de descifrar», afirma Den Dunnen. “Prefiero hacer algunas preguntas casuales. Sobre lo que discutieron la última vez que se vieron. Hablad de ello entre vosotros. Eso parece muy extraño ahora, pero espero que todos lo encontremos normal”.





ttn-es-33