Tecnología

Clonación de voz con IA abre una ventana de posibilidades para cometer fraudes

La locución “robotizada” del asistente virtual, la que lee las noticias o que da las indicaciones en la app de tránsito ya no es el referente de una voz hecha con inteligencia artificial (IA), ahora, ésta puede sonar como un artista de cine, un amigo o, incluso, un familiar cercano.  

A esto se le conoce como suplantación de identidad a través de la clonación de voz hecha con IA generativa, y hoy está al alcance de cualquier persona gracias al Internet, donde es posible encontrar herramientas gratuitas de clonación de voz y cientos de tutoriales de cómo usarlas.

“La clonación de voz es un proceso que utiliza IA para analizar y copiar las características únicas de la voz de una persona, tales como tono, ritmo, inflexiones y pronunciación. Se logra mediante el uso de modelos o redes generativas antagónicas (GAN, por sus siglas en inglés), que es un tipo avanzado de deep learning. Un GAN consta de dos redes neuronales que colaboran entre sí pero con objetivos opuestos. De modo que se entrenan mutuamente para generar voces cada vez más realistas con la posibilidad de replicar las sutilezas del habla humana”, explica Ricardo Robledo, director general y fundador de Tu Identidad, plataforma líder en validación de identidad para empresas y personas.

De acuerdo con un estudio realizado por McAfee, a nivel global 1 de cada 10 personas dijo haber recibido un mensaje de un clon de voz con IA y el 77% de esas víctimas confesó haber perdido dinero como resultado del crimen. Además, el mismo estudio revela que cerca del 70% de la población es casi incapaz de reconocer una voz clonada de una voz real.  

¿Reconoces este modus operandi?

Al margen de lo que podría pensarse no se requieren audios extensos y claros para clonar la voz, ya que existen herramientas que pueden replicar la voz con muestras de voz que duren segundos. Con estos fragmentos se entrena al modelo de IA para que aprende a imitar dicha voz y puede generar palabras o frases nuevas. Una vez entrenado el modelo, los delincuentes generan audios que suenan exactamente como la voz clonada. 

Los delincuentes suelen utilizan estas reproducciones para solicitar dinero, información confidencial o realizar movimientos financieros, o incluso simular accidentes o secuestros. 

“Los delincuentes investigan a sus potenciales víctimas, recolectan información de fuentes públicas y redes sociales. Luego, seleccionan a un familiar o conocido de la persona cuya voz clonaron y utilizan este recurso para hacer una llamada de emergencia falsa”, explica Robledo.

Consejos para evitar ser víctima del fraude 

Para Tu identidad es fundamental tomar medidas para protegerse contra estas amenazas. A continuación, se presentan cinco recomendaciones que ayudarán a los usuarios a evitar ser víctimas de este tipo de fraude: 

  • Verificación de identidad: Actúa con cautela y comprueba la identidad de la persona al otro lado de la línea, a través de una palabra clave establecida previamente o información que sólo sea del conocimiento de la supuesta víctima. 
  • Cuidado de la información personal: Evita compartir videos donde se escuche tu voz real y detalles de tu vida personal en plataformas públicas y redes sociales.  
  • Monitoreo de actividad en redes sociales: Supervisa regularmente tus cuentas de redes sociales y otras plataformas en línea para detectar cualquier actividad inusual. Si observas algo sospechoso, como intentos de acceder a su información personal o de contactarse con sus conocidos utilizando su voz clonada, repórtalo. 
  • Concientización: Manténte informado sobre las técnicas de estafa más comunes y las nuevas amenazas relacionadas con la clonación de voz. Comparte la información con tu familia y amigos para que estén alerta. 

Dejar una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *