Roger Menéndez, especialista en ciberseguridad, habla sobre esta modalidad de fraude y ofrece valiosas recomendaciones para evitar ser víctimas de estafas realizadas mediante el uso de inteligencia artificial.
Your browser doesn’t support HTML5 audio
Ultimamente se está detectando una alarmante tendencia en el uso de inteligencia artificial para la creación de videos falsos con el fin de estafar a personas, aprovechando la voz de reconocidos personajes peruanos como Mavila Huertas, José Luis Pérez Albela, Elmer Huerta y hasta la propia Magaly Medina.
Roger Menéndez, especialista en ciberseguridad, ha advertido sobre el peligroso uso de inteligencias artificiales que, a partir de fragmentos de voz o grabaciones previas, pueden generar audios que imitan a la perfección el timbre y entonación de estas personalidades.
"Estas tecnologías permiten no solo clonar la voz, sino también editar videos de manera convincente, creando así montajes en los cuales pareciera que estas figuras públicas están promoviendo productos o solicitando acciones específicas, como hacer clic en enlaces maliciosos", mencionó Menéndez.
La técnica empleada por los ciberdelincuentes consiste en primer lugar en crear audios falsos utilizando inteligencia artificial, luego editan videos utilizando imágenes previamente grabadas, y finalmente los combinan para generar contenido engañoso y polémico. Esta manipulación tiene como objetivo incitar a las personas a realizar acciones como clics en sitios fraudulentos, descargas de software malicioso o transferencias de dinero.
Te recomendamos
Todos podemos ser víctimas del mal uso de la inteligencia artificial
El especialista menciona también que cualquier persona, sin importar si es una figura pública o no, puede ser víctima de este tipo de estafas. Menéndez advierte que los delincuentes pueden obtener fragmentos de voz de las redes sociales y utilizarlos para crear audios falsos que, por ejemplo, soliciten dinero a familiares o amigos.
Es crucial destacar que los estafadores hacen uso de las redes sociales para segmentar estos videos de estafa, enfocándose, por ejemplo, en personas mayores, quienes son más vulnerables a este tipo de engaños.
Your browser doesn’t support HTML5 audio
¿Cómo evitar caer en estos engaños?
Ante esta situación, Menéndez recomienda tomar varias medidas preventivas. "Lo primero que yo recomiendo es difundir esta información. Hablar con amigos, familiares, y especialmente con personas mayores, para que estén al tanto de que hoy en día los delincuentes están utilizando la inteligencia artificial para clonar voces, crear videos falsos, y clonar páginas web. Es esencial que desconfíen cada vez que reciben un mensaje o ven un aviso que les exige hacer un depósito, una transferencia, o dejar datos personales", subrayó.
Además, menciona que es importante revisar las páginas oficiales de las personas o entidades que supuestamente están difundiendo la información para verificar su autenticidad. "Otra recomendación es revisar las páginas oficiales de quienes están difundiendo la noticia falsa. Esto puede ayudar a confirmar si la información es verídica o no", añadió Menéndez.
Your browser doesn’t support HTML5 audio
Te recomendamos
METADATA | E245: Hola a los asistentes de voz con Inteligencia Artificial y adiós a Twitter (de verdad)
¡Bienvenidos a METADATA 245, el podcast de tecnología de RPP! La competencia en la inteligencia artificial se intensifica con OpenAI y Google mostrando sus nuevas armas: asistentes de voz cada vez más sofisticados. ¿Pero cómo mantenernos seguros usando la IA? IBM nos da recomendaciones. Android implementa nuevas medidas para combatir los robos de celulares y Twitter dice (ahora sí) adiós.
Comparte esta noticia
Siguenos en