Las estafas telefónicas evolucionan a pasos agigantados. Ya no se trata solo de fraudes evidentes, sino de métodos sofisticados que utilizan la Inteligencia Artificial (IA) para clonar tu voz y cometer robos de identidad.
Estas llamadas provienen de números desconocidos y comienzan con urgencia o una alerta falsa. Los delincuentes fingen ser empleados bancarios, servicios de paquetería o dependencias gubernamentales. Su objetivo no siempre es obtener datos personales de inmediato. Muchas veces buscan grabar tu voz para usarla en sistemas automatizados o montajes falsos.
La práctica conocida como “fraude del sí” crece cada año. Funciona de forma sencilla: el estafador hace una pregunta para que respondas con “sí” u otra palabra afirmativa. Esa grabación se edita y se usa para autorizar servicios, aceptar contratos o validar cargos que nunca solicitaste.
Excélsior advierte que las tres palabras más riesgosas son:
-
Sí: autoriza transacciones, activa servicios o valida contratos sin tu consentimiento.
-
Hola: confirma que tu número está activo y puede editarse en grabaciones para simular diálogos.
-
Aló: activa sistemas automáticos o redirecciona la llamada a operadores del fraude.
Para protegerte, responde con frases neutras como:
-
“¿Quién llama?”
-
“¿En qué puedo ayudarle?”
-
“¿De parte de quién?”
También puedes guardar silencio unos segundos para que sea el interlocutor quien hable primero. Así reduces el riesgo de grabaciones útiles para actividades ilícitas.
Pero este riesgo no termina ahí. Los ciberdelincuentes ahora usan IA para clonar voces y suplantar identidades. Solo necesitan grabaciones breves obtenidas en llamadas o redes sociales para replicar tu voz y hacerse pasar por ti ante familiares, amigos o bancos. Según expertos, incluso un simple audio de WhatsApp puede ser suficiente.
Casos como el “fraude del CEO” muestran el alcance de estas técnicas. En este tipo de estafa, se clona la voz de un directivo de empresa con deepfake (deep voice) para autorizar pagos o compras fraudulentas. Empresas en todo el mundo han perdido millones de pesos por esta modalidad.
La encuesta global de McAfee indica que 53% de personas comparten su voz en línea al menos una vez por semana, ya sea en notas de voz o redes sociales. Esto incrementa el riesgo de clonación y fraude.
Ante estos peligros, el Consejo Nacional de Seguridad Privada recomienda:
-
No compartir muchos audios en redes sociales.
-
Establecer palabras clave con familiares para verificar identidad.
-
No descargar apps de dudosa procedencia que puedan grabar tu voz.
-
Cambiar contraseñas con regularidad.
-
No dar datos personales ni bancarios por teléfono.
-
Colgar si sientes presión, amenazas o urgencia para actuar.
Además, bancos, operadoras y autoridades trabajan en nuevas soluciones de seguridad. Se busca autenticar llamadas mediante sistemas biométricos que detecten grabaciones o deepfakes, geolocalización de llamadas y verificación avanzada de identidad. Así se crean plantillas únicas de biometría vocal para evitar clonaciones.
La IA ofrece grandes beneficios, pero en manos equivocadas puede convertirse en amenaza. Mantente informado, cuida tu voz y tus datos. La prevención sigue siendo tu mejor defensa ante un fraude que se vuelve cada vez más real y difícil de detectar.
Te puede interesar: Michelin reestructura México: se muda a León y cambia CEO
Perfil de Autor
- Editordmx
Últimas notas
Sociedad18 diciembre, 2025Ernesto Mizrahi Haiat: “Usar la tecnología predictiva para la seguridad ciudadana”
Novedades18 diciembre, 2025Complejidad de consumidores moldearán rumbo de la industria alimentaria: Grupo Kosmo
Novedades11 diciembre, 2025Smishing: alerta Seguritech Privada ante fraudes por SMS
Noticias Virales11 diciembre, 2025Confusión, falta de claridad y un reembolso inexistente: el caso que Iberia no resuelve










