En un caso alarmante en Florida, una madre perdió 15 mil dólares tras ser engañada por estafadores que usaron inteligencia artificial para clonar la voz de su hija. Este incidente pone en evidencia los peligros de las estafas tecnológicas y cómo la clonación de voz se ha convertido en una herramienta sofisticada para el fraude.
PUEDES LEER ► Crean inteligencia artificial para Candy Crush y terminan despedidos por la misma empresa
¿Qué es la clonación de voz y cómo se usa en estafas?
La clonación de voz con IA permite replicar la voz de una persona con gran precisión utilizando solo unos segundos de audio. Los ciberdelincuentes aprovechan esta tecnología para crear réplicas digitales que suenan idénticas a las víctimas, manipulando emociones y confianza. En el caso de Sharon Brightwell, residente de Hillsborough, Florida, los estafadores usaron una voz idéntica a la de su hija, April Munroe, para engañarla.
El 9 de julio, Sharon recibió una llamada de alguien que parecía ser su hija, llorando desesperadamente. La voz, entre sollozos, afirmó haber atropellado a una mujer embarazada mientras enviaba mensajes al conducir. “Conozco el llanto de mi hija, era ella”, relató Sharon en una entrevista con WFLA. La réplica era tan convincente que no levantó sospechas.
¿Cómo ejecutaron la estafa?
Un hombre, haciéndose pasar por un supuesto abogado, contactó a Sharon y le explicó que su hija estaba detenida, exigiendo una fianza de 15 mil dólares en efectivo. Presa del pánico, Sharon entregó el dinero a un “representante legal” que acudió a su casa. Minutos después, otra llamada le informó que la mujer embarazada había perdido al bebé y que ahora necesitaba 30 mil dólares adicionales para evitar una demanda. Afortunadamente, una amiga contactó a la verdadera April Munroe, quien estaba a salvo, revelando el engaño.
¿Por qué es tan peligrosa la clonación de voz con IA?
La inteligencia artificial generativa ha hecho que las estafas telefónicas sean más creíbles. Con acceso a grabaciones, como las publicadas en redes sociales, los delincuentes pueden entrenar modelos de IA para imitar voces con gran fidelidad. Este caso refleja una tendencia preocupante: el 90% de los fraudes informáticos involucran métodos digitales, según el director de Ciberdelincuencia de la PNP. La facilidad para obtener audios en plataformas públicas agrava el riesgo.
¿Cómo protegerse de estas estafas tecnológicas?
Para evitar ser víctima de fraudes con clonación de voz, sigue estas recomendaciones:
- Establece una palabra clave familiar: Crea un código secreto con tus seres queridos para verificar su identidad en situaciones sospechosas.
- Desconfía de llamadas urgentes: Los estafadores suelen presionar con emergencias falsas. Verifica siempre la información antes de actuar.
- Limita la exposición en redes sociales: Evita compartir audios o videos que puedan ser usados para entrenar modelos de IA.
- Usa aplicaciones seguras: Comunícate a través de plataformas encriptadas para reducir riesgos.











