Los expertos afirman que las celebridades son las que corren mayor riesgo de ser clonadas por IA: consejos para evitar caer en estafas de «vishing»


Las celebridades corren mayor riesgo de ser víctimas de intentos de suplantación de identidad debido a la creciente popularidad del software de clonación de voz con inteligencia artificial.

Sin embargo, la falta de estatus de celebridad no es suficiente para protegerte.

Una encuesta a 1.000 estadounidenses clasificó a las figuras públicas con mayor riesgo de clonación de voz por IA, y los encuestados de la Generación Z se sintieron fuertemente a favor de Donald Trump

5

Una encuesta a 1.000 estadounidenses clasificó a las figuras públicas con mayor riesgo de clonación de voz por IA, y los encuestados de la Generación Z se sintieron fuertemente a favor de Donald Trump

Los ciberdelincuentes encontrarán clips de audio en línea y los introducirán en un software disponible comercialmente para producir palabras e incluso oraciones completas con la voz de alguien.

Este proceso se conoce como clonación de voz y el resultado se conoce comúnmente como deepfake de audio.

El término «deepfake» se acuñó en 2017 para describir imágenes y vídeos ilícitos que mostraban rostros de celebridades superpuestos a otros cuerpos.

Y parece que los ricos y famosos están otra vez en peligro.

A Nuevo estudio de Podcastle, una plataforma de podcasting impulsada por IA, encuestó a 1000 estadounidenses para conocer sus opinión Sobre las celebridades con mayor riesgo de clonación de voz.

Los encuestados creían que Arnold Schwarzenegger corría mayor riesgo porque tenía la «voz más sencilla de replicar».

Un enorme 86% de los encuestados cree que el «acento distintivo e instantáneamente reconocible» del exgobernador de California lo pone en riesgo.

A Schwarzenegger le siguieron Donald Trump, Kim Kardashian, Sylvester Stallone y Christopher Walken.

Casi uno de cada cuatro (23%) informó que Kardashian tiene un «tono y timbre consistentes», lo que hace que su voz sea fácil de replicar.

Mientras tanto, el 39% dijo que la voz de Trump es fácil de replicar debido a su familiaridad por sus frecuentes apariciones en los medios.

Una aterradora prueba de inteligencia artificial revela que la mayoría de los estadounidenses no pueden distinguir una voz falsa cuando se les pregunta: pruebe su suerte contra el inquietante ‘deepfake’

Los encuestados de la Generación Z consideraron que Trump era el que corría mayor riesgo; su opinión probablemente estuvo influenciada por una agitación política récord en el panorama de los medios.

Tanto celebridades como políticos han surgido como las víctimas más comunes de deepfakes en las redes sociales.

Una serie de imágenes manipuladas en X, anteriormente Twitter, llevó a la plataforma a prohibir temporalmente las búsquedas del nombre de Taylor Swift en enero.

Y justo la semana pasada, Elon Musk publicó un video deepfake de la presunta candidata presidencial demócrata Kamala Harris en X.

El exgobernador de California Arnold Schwarzenegger salió en primer lugar, y los participantes de la encuesta le dieron crédito "acento distintivo y reconocible al instante"

5

El exgobernador de California Arnold Schwarzenegger salió en primer lugar, y los participantes de la encuesta lo atribuyeron a su «acento distintivo e instantáneamente reconocible».Crédito: Getty

Los deepfakes no son un fenómeno nuevo. El Departamento de Seguridad Nacional de Estados Unidos admitido ellos en un informe de 2019, afirmando que el riesgo no provenía de la tecnología «sino de la inclinación natural de las personas a creer lo que ven».

Como resultado, continuó el informe, «los deepfakes y los medios sintéticos no necesitan ser particularmente avanzados o creíbles para ser
«eficaz en la difusión de información errónea/desinformación».

Si bien a los encuestados en el estudio no se les pidió que comentaran sobre el posible mal uso de la clonación de voz mediante IA tecnologíaLos dirigentes de la empresa han expresado su inquietud.

El director ejecutivo de Podcastle, Artavazd Yeritsyan, dijo a The US Sun que estaba muy al tanto del uso de la clonación de voz por IA. tecnología por actores maliciosos.

Los deepfakes de audio se usan comúnmente para retratar a celebridades diciendo algo que no dijeron, pero los miembros del público están en riesgo por una razón diferente.

5

Los deepfakes de audio se usan comúnmente para retratar a celebridades diciendo algo que no dijeron, pero los miembros del público están en riesgo por una razón diferente.

«Cualquier tecnología «Si introduces algo en la vida, siempre habrá gente que lo use para cosas malas y gente que lo use para cosas buenas», dijo Yeritsyan.

Los usuarios pueden grabar y editar audio sin tener que abandonar la plataforma Podcastle. Esto incluye el uso de IA para generar palabras o frases que no hayan grabado.

Yeritsyan dice que el propósito de la plataforma es «automatizar» el proceso de producción en lugar de «reemplazar a un ser humano».

La plataforma también cuenta con controles para evitar la creación de deepfakes de audio.

Un usuario debe grabar oraciones específicas para confirmar que es una persona real la que habla, a diferencia de un cibercriminal que introduce clips de la voz de otra persona en el sistema.

«Este contenido se almacena de forma segura y se cifra para que nadie más pueda acceder a tu voz», explicó Yeritsyan.

El director ejecutivo Artavazd Yeritsyan cree que la tecnología de clonación de voz podría desempeñar un papel en la accesibilidad y la traducción a pesar de los peligros

5

El director ejecutivo Artavazd Yeritsyan cree que la tecnología de clonación de voz podría desempeñar un papel en la accesibilidad y la traducción a pesar de los peligros

Si bien son optimistas sobre posibles aplicaciones futuras, como las funciones de accesibilidad de texto a voz, los principales representantes de Podcastle son plenamente conscientes de los riesgos.

«Creo que la mayor amenaza son los llamados «phishing», en los que un delincuente solicita información de una cuenta bancaria utilizando la voz de un familiar o amigo», dijo Yeritsyan, describiendo un fenómeno conocido como «phishing de voz».

Todo lo que necesita un cibercriminal son unos pocos segundos de audio (que se encuentran comúnmente en las redes sociales) para crear un deepfake, que luego se utiliza como arma para engañar a víctimas desprevenidas y lograr que entreguen su información personal por teléfono.

Los expertos en ciberseguridad se refieren a este fenómeno como “phishing de voz” o “vishing”.

Los ciberdelincuentes se basan en la tecnología de clonación de voz de IA para atacar a personas en "phishing de voz" Ataques, haciéndose pasar por amigos o familiares de la víctima para ganarse su confianza.

5

Los cibercriminales se basan en la tecnología de clonación de voz de IA para atacar a personas en ataques de «phishing de voz», haciéndose pasar por amigos o familiares de la víctima para ganarse su confianza.Crédito: Getty

Una defensa exitosa contra esta forma de ciberataque emergente comienza con comprender las señales de una estafa.

Los delincuentes suelen pedir a sus víctimas que actúen con urgencia para corregir cargos fraudulentos o confirmar información personal. Un enfoque contundente debería hacer sonar las alarmas.

Siempre debes tener cuidado, ya que un identificador de llamadas puede no ser suficiente para verificar la identidad.

Los expertos en seguridad recomiendan colgar y llamar directamente a la organización o individuo si recibe una llamada que sospecha que puede ser fraudulenta.

Como consejo general, absténgase de proporcionar detalles confidenciales como contraseñas, número de tarjeta de crédito o información de cuenta bancaria por teléfono.

¿Cómo encuentran mi número los estafadores?

Aquí, Mackenzie Tatananni, reportera de ciencia y tecnología de The US Sun, explica las formas en que un estafador puede obtener su información.

Los estafadores comúnmente obtienen números de teléfono a partir de violaciones de datos, que ocurren cuando un pirata informático accede a una base de datos privada, a menudo aquellas mantenidas por empresas como proveedores de servicios y empleadores.

Esta información puede compartirse y circular en línea, incluso en la web oscura, donde existen foros dedicados a compartir información filtrada.

Otra técnica común llamada wardialing emplea un sistema automatizado que apunta a códigos de área específicos.

Un mensaje grabado le indicará al oyente que ingrese información confidencial, como un número de tarjeta y un PIN.

Existe también una posibilidad mucho más desgarradora: su número de teléfono podría aparecer publicado en Internet sin su conocimiento.

Los corredores de datos están ansiosos por comprar y vender su información. Estas empresas recopilan información de varias fuentes públicas en línea, incluidas las redes sociales y los registros públicos.

Su objetivo principal es crear bases de datos de personas y utilizar esta información para publicidad y marketing personalizados.

Gran parte de esta información termina en sitios de registros públicos, que muestran información como su número de teléfono, correo electrónico, dirección particular y fecha de nacimiento para que cualquiera pueda verla.

En los Estados Unidos, estos sitios están obligados legalmente a eliminar su información si usted lo solicita.

Localice su perfil y siga las instrucciones para cancelar la suscripción, pero tenga cuidado: estos sitios no lo hacen fácil y tienen como objetivo frustrarlo para que no complete el proceso de cancelación de registro.

Para simplificar, también puedes utilizar una herramienta para purgar tu información de Internet.

Norton ofrece uno de esos servicios, llamado Asistente de Monitoreo de Privacidad, que busca información en línea y solicita su eliminación en su nombre.

También es posible que tu número de teléfono esté vinculado a una cuenta de redes sociales y se muestre públicamente en tu perfil; esto sucede con bastante frecuencia con Facebook.

Asegúrese de revisar su configuración de privacidad y confirmar que esta información esté oculta de miradas indiscretas.

Los representantes de Podcastle anticipan que la tecnología de clonación de voz se utilizará cada vez más para aumentar la productividad y automatizar procesos tediosos.

Sin embargo, entienden que gran parte de la responsabilidad de frenar a los malos actores recae sobre ellos.

«Queremos llegar a una etapa en la que simplemente no le demos a la gente la posibilidad de usarlo por malas razones», explicó Yeritsyan.

«Creo que la mayoría de los productos deberían estar regulados para que este tipo de cosas no ocurran».



ttn-es-58