Las estafas telefónicas evolucionan a pasos agigantados. Ya no se trata solo de fraudes evidentes, sino de métodos sofisticados que utilizan la Inteligencia Artificial (IA) para clonar tu voz y cometer robos de identidad.
Estas llamadas provienen de números desconocidos y comienzan con urgencia o una alerta falsa. Los delincuentes fingen ser empleados bancarios, servicios de paquetería o dependencias gubernamentales. Su objetivo no siempre es obtener datos personales de inmediato. Muchas veces buscan grabar tu voz para usarla en sistemas automatizados o montajes falsos.
La práctica conocida como “fraude del sí” crece cada año. Funciona de forma sencilla: el estafador hace una pregunta para que respondas con “sí” u otra palabra afirmativa. Esa grabación se edita y se usa para autorizar servicios, aceptar contratos o validar cargos que nunca solicitaste.
Excélsior advierte que las tres palabras más riesgosas son:
Sí: autoriza transacciones, activa servicios o valida contratos sin tu consentimiento.
Hola: confirma que tu número está activo y puede editarse en grabaciones para simular diálogos.
Aló: activa sistemas automáticos o redirecciona la llamada a operadores del fraude.
Para protegerte, responde con frases neutras como:
“¿Quién llama?”
“¿En qué puedo ayudarle?”
“¿De parte de quién?”
También puedes guardar silencio unos segundos para que sea el interlocutor quien hable primero. Así reduces el riesgo de grabaciones útiles para actividades ilícitas.
Pero este riesgo no termina ahí. Los ciberdelincuentes ahora usan IA para clonar voces y suplantar identidades. Solo necesitan grabaciones breves obtenidas en llamadas o redes sociales para replicar tu voz y hacerse pasar por ti ante familiares, amigos o bancos. Según expertos, incluso un simple audio de WhatsApp puede ser suficiente.
Casos como el “fraude del CEO” muestran el alcance de estas técnicas. En este tipo de estafa, se clona la voz de un directivo de empresa con deepfake (deep voice) para autorizar pagos o compras fraudulentas. Empresas en todo el mundo han perdido millones de pesos por esta modalidad.
La encuesta global de McAfee indica que 53% de personas comparten su voz en línea al menos una vez por semana, ya sea en notas de voz o redes sociales. Esto incrementa el riesgo de clonación y fraude.
Ante estos peligros, el Consejo Nacional de Seguridad Privada recomienda:
No compartir muchos audios en redes sociales.
Establecer palabras clave con familiares para verificar identidad.
No descargar apps de dudosa procedencia que puedan grabar tu voz.
Cambiar contraseñas con regularidad.
No dar datos personales ni bancarios por teléfono.
Colgar si sientes presión, amenazas o urgencia para actuar.
Además, bancos, operadoras y autoridades trabajan en nuevas soluciones de seguridad. Se busca autenticar llamadas mediante sistemas biométricos que detecten grabaciones o deepfakes, geolocalización de llamadas y verificación avanzada de identidad. Así se crean plantillas únicas de biometría vocal para evitar clonaciones.
La IA ofrece grandes beneficios, pero en manos equivocadas puede convertirse en amenaza. Mantente informado, cuida tu voz y tus datos. La prevención sigue siendo tu mejor defensa ante un fraude que se vuelve cada vez más real y difícil de detectar.
Te puede interesar: Michelin reestructura México: se muda a León y cambia CEO
Este año se aprobó la construcción de 19 nuevos desarrollos inmobiliarios en el municipio de…
Durante 2025, la imprenta a cargo de la Dirección de Organización de Oficialía Mayor, reprodujo…
La detención de Joaquín Rodríguez Véjar, exsecretario del Ayuntamiento de Hermosillo, en Sonora, por el…
La industria alimentaria se encamina hacia una transformación relevante en 2026, impulsada por la megatendencia…
La Secretaría de Salud (SESA) del estado de Querétaro informa que las quemaduras representan un…
Con 199 años de historia, en el corazón de la capital queretana se llevó a…