Este es el modus operandi de estafadores con IA y que preocupan a las autoridades

La ciberdelincuencia se actualiza a la par que la misma tecnología y por esta razón los estafadores con IA son de gran preocupación para la Condusef. No caigas en sus redes y sigue leyendo.

Por: Allyson Torres | Marktube
Compartir
  •   Copiar enlace
Este es el modus operandi de estafadores con IA y que preocupan a las autoridades
Foto de Antoni Shkraba en Pexels.

En la era digital, los estafadores con IA (Inteligencia Artificial) han encontrado nuevas formas de engañar a sus víctimas utilizando tecnologías avanzadas como el “Deepfake”. Esta técnica permite clonar voces y hasta crear vídeos realistas para perpetrar fraudes, una situación que preocupa cada vez más a las autoridades. A continuación, te contamos cómo operan y cómo protegerte.

Te puede interesar: ¿Tu grupo de familia corre peligro en WhatsApp? Esto sabemos

¿Cómo es el modus operandi de los estafadores con IA?

El modus operandi de los estafadores con IA suele involucrar el uso de redes sociales o aplicaciones de mensajería como WhatsApp. Los ciberdelincuentes clonan la voz de una persona mediante Inteligencia Artificial y envían mensajes o notas de voz a los contactos de la víctima, alegando estar en una situación de emergencia. Pero su objetivo principal es obtener dinero de manera rápida y sin levantar sospechas.

Según la Comisión Nacional para la Protección y Defensa de los Usuarios de Servicios Financieros (Condusef), este método es altamente eficaz, ya que muchas personas confían en las voces familiares que escuchan. Además, los estafadores con IA pueden incluir enlaces maliciosos para robar datos personales o financieros.

¿Qué hacer para no caer en las estafas con “Deepfake”?

Para evitar caer en las manos de los estafadores con IA, es fundamental seguir algunas recomendaciones clave:

  • Verifica la autenticidad de cualquier mensaje o nota de voz sospechosa antes de actuar.
  • Evita abrir enlaces o archivos de remitentes desconocidos.
  • Marca como spam los números desconocidos y bloquéalos para prevenir futuros intentos de fraude.

Cabe señalar que este tipo de estafas también se han documentado a nivel internacional. Por ejemplo, en Francia, una mujer fue víctima de un “Deepfake” donde los criminales se hicieron pasar por el actor Brad Pitt y la estafaron con 830 mil euros.

Por lo tanto, no queda más que estar alerta ante los estafadores con IA para proteger tu integridad y tus finanzas. Recuerda que la prevención es la mejor herramienta contra estos fraudes sofisticados.

Te puede interesar: ¡Condusef alerta de estafas con videos generados con IA!

DISFRUTA LA SEÑAL DE TV AZTECA
TV AZTECA | PROGRAMAS
×