Voces clonadas: la nueva modalidad de estafa con inteligencia artificial de la que te debes cuidar

Distintas figuras públicas han sido utilizadas como señuelos para engañar a la gente | Fuente: ESET

Roger Menéndez, especialista en ciberseguridad, habla sobre esta modalidad de fraude y ofrece valiosas recomendaciones para evitar ser víctimas de estafas realizadas mediante el uso de inteligencia artificial.

Your browser doesn’t support HTML5 audio

Ultimamente se está detectando una alarmante tendencia en el uso de inteligencia artificial para la creación de videos falsos con el fin de estafar a personas, aprovechando la voz de reconocidos personajes peruanos como Mavila Huertas, José Luis Pérez Albela, Elmer Huerta y hasta la propia Magaly Medina.

Roger Menéndez, especialista en ciberseguridad, ha advertido sobre el peligroso uso de inteligencias artificiales que, a partir de fragmentos de voz o grabaciones previas, pueden generar audios que imitan a la perfección el timbre y entonación de estas personalidades.

"Estas tecnologías permiten no solo clonar la voz, sino también editar videos de manera convincente, creando así montajes en los cuales pareciera que estas figuras públicas están promoviendo productos o solicitando acciones específicas, como hacer clic en enlaces maliciosos", mencionó Menéndez.

La técnica empleada por los ciberdelincuentes consiste en primer lugar en crear audios falsos utilizando inteligencia artificial, luego editan videos utilizando imágenes previamente grabadas, y finalmente los combinan para generar contenido engañoso y polémico. Esta manipulación tiene como objetivo incitar a las personas a realizar acciones como clics en sitios fraudulentos, descargas de software malicioso o transferencias de dinero.

Te recomendamos

Todos podemos ser víctimas del mal uso de la inteligencia artificial

El especialista menciona también que cualquier persona, sin importar si es una figura pública o no, puede ser víctima de este tipo de estafas. Menéndez advierte que los delincuentes pueden obtener fragmentos de voz de las redes sociales y utilizarlos para crear audios falsos que, por ejemplo, soliciten dinero a familiares o amigos.

Es crucial destacar que los estafadores hacen uso de las redes sociales para segmentar estos videos de estafa, enfocándose, por ejemplo, en personas mayores, quienes son más vulnerables a este tipo de engaños.

Your browser doesn’t support HTML5 audio

¿Cómo evitar caer en estos engaños?

Ante esta situación, Menéndez recomienda tomar varias medidas preventivas. "Lo primero que yo recomiendo es difundir esta información. Hablar con amigos, familiares, y especialmente con personas mayores, para que estén al tanto de que hoy en día los delincuentes están utilizando la inteligencia artificial para clonar voces, crear videos falsos, y clonar páginas web. Es esencial que desconfíen cada vez que reciben un mensaje o ven un aviso que les exige hacer un depósito, una transferencia, o dejar datos personales", subrayó.

Además, menciona que es importante revisar las páginas oficiales de las personas o entidades que supuestamente están difundiendo la información para verificar su autenticidad. "Otra recomendación es revisar las páginas oficiales de quienes están difundiendo la noticia falsa. Esto puede ayudar a confirmar si la información es verídica o no", añadió Menéndez.

Your browser doesn’t support HTML5 audio

RPP en YouTube

La voz de todo el Perú.

¡Suscríbete gratis

Te recomendamos

METADATA

METADATA | E245: Hola a los asistentes de voz con Inteligencia Artificial y adiós a Twitter (de verdad)

¡Bienvenidos a METADATA 245, el podcast de tecnología de RPP! La competencia en la inteligencia artificial se intensifica con OpenAI y Google mostrando sus nuevas armas: asistentes de voz cada vez más sofisticados. ¿Pero cómo mantenernos seguros usando la IA? IBM nos da recomendaciones. Android implementa nuevas medidas para combatir los robos de celulares y Twitter dice (ahora sí) adiós.

Comunicador audiovisual. Apasionado por la música, el fútbol y la lucha libre.

Tags

Suscribirte al newsletter de tus noticias preferidas

Suscríbete a nuestros newsletter y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Últimas noticias

Contenido promocionado

Taboola