recen las estafas que utilizan clonación de voz con Inteligencia Artificial
Este engaño no solo está en pleno aumento, sino que es cada vez más realista gracias a la IA, es por eso que ESET advierte cómo reconocerlos y qué medidas tomar para no ser víctima.
No es una novedad que la Inteligencia Artificial llegó para revolucionar el mundo, y los ciberdelincuentes han sabido aprovechar todo este potencial para armar ataques de ingeniería social dirigidos, más realistas y sofisticados. Las técnicas que involucran la clonación de voz para hacerse pasar por familiares, amigos o conocidos están en pleno auge con el objetivo de obtener información privada o directamente dinero de sus víctimas. ESET, compañía líder en detección proactiva de amenazas, analiza la metodología que utilizan los atacantes en este tipo de engaños, cómo pueden afectar a las personas y de qué manera evitar ser víctima.
Los cibercriminales toman pequeños fragmentos de una grabación real y mediante el uso de la Inteligencia Artificial y los patrones de voz, crean conversaciones y frases para llevar a cabo sus engaños, con consecuencias tan graves como costosas. Estas muestras las obtienen de grabaciones de voz o de videos que estén publicados en redes sociales como Instagram o TikTok.


