Clonan tu voz o imagen y te estafan: alertan por el uso de inteligencia artificial en fraudes digitales
David Roco contó en Radio Jornada cómo se pueden utilizar los datos biométricos como herramientas para cometer estafas
La inteligencia artificial, que promete revolucionar numerosos sectores, también es utilizada por ciberdelincuentes para perfeccionar sus estafas. Con apenas 30 segundos de audio o una foto subida a redes sociales, pueden clonar voces e imágenes y usarlas en videollamadas falsas para estafas. Así lo advirtió David Roco, especialista en ciberseguridad, en diálogo con Radio Jornada 91.9.
Roco explicó que hoy existen herramientas accesibles como Eleven Labs o Open Voice que permiten crear deepfakes con gran realismo. "Ya no solo clonan la voz. También la imagen, los gestos, las expresiones. Te llaman por WhatsApp con la cara de tu hijo, su voz, y te piden plata. ¿Cómo no vas a creerlo?", señaló. Frente a esta realidad, recomendó establecer códigos familiares para confirmar identidad y no brindar datos ni dinero sin chequear por otros medios.
No hay límites: también se hacen videollamadas falsas
Según Roco, los delincuentes pueden acceder a información pública en redes sociales para alimentar sistemas de inteligencia artificial que generan videos falsos en tiempo real. "Todo lo que subimos -fotos, audios, publicaciones- alimenta estas herramientas. Pueden armar una videollamada con tu imagen, tu voz, tus gestos. Y si no ves seguido a esa persona, te pueden engañar muy fácilmente", alertó.
El especialista sostuvo que estos fraudes se apoyan en el factor emocional y la urgencia: simulan accidentes, secuestros o emergencias para presionar a las víctimas. "Te dicen ‘abuela, me pasó algo, necesito plata ya', y vos lo ves, lo escuchás. Pero no es tu nieto: es una simulación perfecta", explicó. Por eso, insistió en la importancia de mantener la calma, desconfiar y verificar.
Del phishing al robo de claves por frecuencia
Además de los deepfakes, Roco enumeró otros mecanismos de estafas potenciados por IA. Uno de ellos es el robo de datos mediante llamadas automatizadas. "Te llaman diciendo que hubo una transferencia sospechosa, te piden que marques tu DNI y tu clave. Lo que vos tocás en el teléfono viaja con una frecuencia distinta por cada número, y eso se graba. Luego lo decodifican y obtienen tu clave", detalló.
También mencionó el clásico phishing, que ahora incorpora contestadores y páginas falsas cada vez más realistas. "Te mandan un link con un 0800 trucho, llamás y todo parece legítimo. Pero es una trampa. La IA ayuda a los delincuentes a hacer más creíbles estos montajes", remarcó. Y agregó: "Ni los antivirus pueden prevenir esto. Es clave educarse, hablarlo en familia y verificar siempre".
La protección propia es fundamental ante la falta de leyes
Roco fue claro en que aún no existen herramientas legales ni tecnológicas que puedan contener completamente estas amenazas. "Vamos detrás de la tecnología. Las leyes, los sistemas de protección, todo llega tarde. Mientras tanto, tenemos que cuidarnos entre nosotros", dijo.
Entre las recomendaciones, propuso establecer códigos familiares que sirvan de contraseña verbal para confirmar identidades. También sugirió demorar cualquier respuesta urgente y corroborar por otro canal antes de actuar. "Si te piden algo con apuro, la regla es frenar. Decir ‘te contesto en una hora' y chequear. La calma y la información son nuestras mejores defensas", concluyó.