En los últimos años, ha emergido un fenómeno preocupante: las estafas por suplantación de identidad y la clonación de voz. Las réplicas artificiales de voz utilizan inteligencia artificial, lo que las hace parecer auténticas.
El origen de este tipo de software y su proliferación ha generado un debate sobre la confianza en el ámbito laboral y personal. Cada vez más personas son víctimas de estos engaños, lo que plantea la necesidad de extremar precauciones.
El Instituto Nacional de Ciberseguridad (INCIBE) recomienda tomar medidas preventivas, evitando responder preguntas como…

A través de software de clonación de voz, los delincuentes analizan grabaciones anteriores de la víctima para generar audios artificiales. La situación es compleja y cada día se suman más casos a la lista de víctimas.
Las tecnologías recientes, como los deepfakes de voz, han permitido a los delincuentes hacer que las víctimas crean que están hablando con alguien de confianza, ya sea un ser querido o un colega. Esto resulta devastador para quienes son engañados, ya que se sienten presionados a actuar inmediatamente.

Los estafadores suelen usar un tono de desesperación para crear una atmósfera de urgencia, obligando a la víctima a actuar sin pensar. Frecuentemente, demandan transferencias inmediatas de dinero, aumentando así el riesgo de que la víctima caiga en la trampa.

Es fundamental hacer preguntas claras para verificar la identidad de la persona que llama. Es recomendable optar por preguntas personales cuya respuesta no sea fácil de obtener para terceros, así se evita que se acuda a la información escuchada de grabaciones previas.
Ignorar las precauciones ante las estafas de voz clonada puede conllevar consecuencias graves, tanto a nivel financiero como personal. La pérdida de dinero y la violación de la privacidad son solo algunas de las repercusiones a las que las víctimas se enfrentan. Además, una vez que los delincuentes obtienen acceso a información personal, tienen la capacidad de cometer otras estafas aún más perjudiciales.