Nuevos señuelos de estafa telefónica con voz de IA

La inteligencia artificial (IA) puede hacernos la vida más fácil de muchas maneras. Pero los avances tecnológicos también conllevan riesgos. Una nueva estafa telefónica ahora se basa en voces generadas por IA que son confusamente similares a las de las personas reales. Los delincuentes en los EE. UU., disfrazados de presuntos familiares necesitados, ya han podido engañar a numerosas víctimas desprevenidas.

El hecho de que las estafas a través de SMS o Whatsapp tengan tanto éxito también se debe a que casi cualquier persona puede estar detrás de los mensajes de texto. Este también es el caso del llamado truco del nieto, donde los estafadores fingen ser parientes cercanos por escrito. Las personas mayores en particular, cuya memoria ya no está del todo en forma y que pueden tener problemas con la tecnología, son relativamente fáciles de inquietar. Entonces, si una persona recibe un mensaje del aparente nieto que se dice que está en una situación de emergencia, el bolso se saca rápidamente. El fraude telefónico, en cambio, puede fracasar porque la víctima percibe como ajena la voz del presunto familiar. Pero es precisamente este obstáculo el que ahora pueden superar los delincuentes, con la ayuda de voces generadas por IA.

Imitación de voz con IA: ¿cómo funciona?

AI significa la imitación de la inteligencia humana. Con la ayuda de los datos de entrenamiento introducidos en los programas y procesados ​​por ellos, la IA puede responder preguntas y pensar por sí misma. Las áreas de aplicación generalizadas son, por ejemplo, los sistemas de recomendación de Netflix and Co., que se basan en el comportamiento de transmisión de los usuarios, o la función de reconocimiento de rostro y voz de los teléfonos inteligentes. Un juez colombiano leyó recientemente un veredicto que había escrito el bot de IA ChatGPT.

Las capacidades de la IA siguen siendo suficientes para internalizar e imitar fielmente las voces de las personas utilizando muestras de sonido breves. El software desarrollado para este propósito analiza lo que hace que una voz sea única, según un artículo actual en el diario «El Correo de Washington». También tienen en cuenta la edad y el sexo estimados de la persona, así como cualquier peculiaridad (por ejemplo, impedimentos del habla, acentos). Sobre esta base, la IA selecciona una voz de una enorme base de datos de voces que más se parece a la plantilla.

Numerosos casos de fraude en los EE. UU.

Como informa el periódico, las llamadas fraudulentas con voces generadas por IA están aumentando actualmente dentro de los EE. UU. Se presenta el caso de la pareja Card, ella tiene 73 años y él 75 años. Fueron llamados desde prisión por su supuesto nieto, Brandon, con una solicitud urgente de dinero para la fianza. Como resultado, los abuelos asustados quieren haber visitado varias instituciones financieras y retirar la mayor cantidad posible de sus cuentas. En este caso, el gerente de uno de los bancos pudo prevenir algo peor. Ya había oído hablar del arma del ladrón de otros clientes y, por lo tanto, lo expuso como una estafa. Otra pareja mayor, en cambio, transfirió los aproximadamente $15,000 que exigía el estafador (el presunto hijo) sin dudarlo.

Estos casos individuales conforman un panorama general notable: el año pasado, se dice que las llamadas fraudulentas en los EE. UU. causaron daños financieros por un total de alrededor de 11 millones de dólares estadounidenses.

También interesante: Spoofing: así es como te proteges de las estafas

Proteja su voz de los intentos de imitación

Los casos correspondientes de Alemania aún no se conocen. Pero probablemente sea solo cuestión de tiempo antes de que la estafa con voces generadas por IA también llegue aquí. Entonces, si no quiere convertirse en cómplice accidentalmente, debe tener cuidado, por ejemplo, si recibe una llamada de un número desconocido o suprimido. Porque el software para la imitación de voz solo necesita plantillas muy cortas (por ejemplo, un «hola, ¿quién es?») para generar un imitador realista. Los usuarios de TikTok and Co. que dejan salir su voz en carretes o videos son un objetivo para los estafadores.



ttn-es-35