Hacete socio para acceder a este contenido

Para continuar, hacete socio de Caras y Caretas. Si ya formas parte de la comunidad, inicia sesión.

ASOCIARME
Like clonación | voz | Inteligencia Artificial

Atentos siempre

Crecen las estafas con clonación de voz mediante Inteligencia Artificial

Las estafas con clonación de voz mediante Inteligencia Artificial aumentan. Ciberdelincuentes imitan voces para engañar.

Suscribite

Caras y Caretas Diario

En tu email todos los días

La utilización de Inteligencia Artificial (IA) en el cibercrimen no es una novedad, pero la creciente sofisticación de las técnicas utilizadas por los delincuentes genera un nuevo nivel de preocupación. Una de las modalidades en auge es la clonación de voz con IA para engañar a víctimas desprevenidas, simulando ser familiares, amigos o figuras de confianza con el objetivo de obtener información privada o dinero.

Los ciberdelincuentes recopilan fragmentos de grabaciones de voz a partir de redes sociales como Instagram, TikTok o WhatsApp. Mediante el uso de la IA, logran replicar patrones vocales con una precisión impactante, generando mensajes de audio convincentes.

Según datos de la Comisión Federal de Comercio de los Estados Unidos, en 2023 se registraron pérdidas por 2.700 millones de dólares debido a este tipo de estafas. En el Reino Unido, una encuesta realizada por Starling Bank reveló que más del 25% de los adultos afirmó haber sido víctima de una estafa de clonación de voz al menos una vez en el último año, mientras que el 46% desconocía la existencia de estos fraudes. Ante este panorama, el FBI emitió recientemente una alerta sobre el uso de IA para estafas, destacando los riesgos financieros y de seguridad.

Cómo protegerse de las estafas con IA

ESET, empresa líder en ciberseguridad, recomienda una serie de medidas para prevenir este tipo de fraudes:

  • Estar alerta ante mensajes inesperados: Si alguien solicita dinero o datos personales de manera urgente, verificar la autenticidad del mensaje antes de actuar.
  • Verificación por otro medio: Si se recibe un mensaje de voz sospechoso, se recomienda llamar directamente a la persona a un número de contacto conocido.
  • Usar una "frase segura": Acuerde con familiares o amigos una palabra clave que permita confirmar la identidad en caso de emergencia.
  • Implementar autenticación multifactor (MFA): Agregar una capa extra de seguridad a cuentas y sistemas dificulta el acceso a los ciberdelincuentes.

Capacitación en empresas

Es importante que las organizaciones eduquen a sus empleados sobre estas amenazas para evitar caer en trampas de phishing o fraudes similares.

La clonación de voz con IA representa un desafío creciente en el mundo digital. Con el aumento de su sofisticación, también se incrementa la necesidad de estar informados y preparados para detectar estas amenazas antes de que causen daños irreparables.

Dejá tu comentario

Forma parte de los que luchamos por la libertad de información.

Hacete socio de Caras y Caretas y ayudanos a seguir mostrando lo que nadie te muestra.

HACETE SOCIO