miércoles 15 de enero de 2025

El peligro de la Inteligencia Artificial: estafadores imitaron una voz para simular un secuestro

Les farsantes utilizaron la IA para fingir la voz de una joven en Estados Unidos y chantajear a su madre. Su objetivo fue pedir dinero a cambio de la liberación de la adolescente.
El peligro de la Inteligencia Artificial: estafadores imitaron una voz para simular un secuestro 1
El VALL-E es una IA desarrollada por Microsoft que permite imitar la voz al tomar como referencia una grabación de tan sólo 3 segundos. Créditos: Urgente24.com.

Hace algunos días, la Inteligencia Artificial (IA) permitió que estafadores imitaran la voz de Briana DeStefano, una adolescente estadounidense, para simular su secuestro. Les delincuentes intentaron estafar a su madre, Jennifer, con una suma cercana al millón de dólares. Sin embargo, certificó que su hija estaba a salvo y evitó este engaño consumado en Arizona, Estados Unidos.

Mientras la joven esquiaba junto a su padre en las afueras de la ciudad, su mamá recibió una llamada. Una voz de una joven que gritó “mamá, me equivoqué” y resultó muy similar a la de su pequeña de 15 años. En consecuencia, Jennifer protagonizó un intento de extorsión por el supuesto secuestro de Briana.

El registro de llamadas exhibió un número desconocido, que primero exigió 1 millón de dólares por su rescate, pero luego redujo la cifra. Unos minutos más tarde, el estafador solicitó sólo 50 mil dólares. Ahora bien, la madre de la joven no cayó en la extorsión pese a que estaba convencida de que era la voz de su hija.

La presencia de otras mujeres ayudó a desbaratar el chantaje porque lograron comunicarse con el padre de la adolescente y constatar que estaba a salvo. Asimismo, avisaron a la policía. Por este motivo, el FBI investigó el caso y constató que utilizaron IA para simular la expresión de Briana.

La Inteligencia Artificial suplanta identidades

Este no es el primer caso porque, según la Comisión Federal de Comercio, el país registró 36 mil en 2022. No obstante, no es el único ejemplo de uso de la dicción de una persona porque artistas en todo el mundo viven esta situación. A nivel internacional, Nicki Minaj y Eminem sufren la imitación de su voz.

A su vez, en Argentina sucedió algo muy similar con Duki y Paulo Londra. Por esta razón la suplantación de identidades se tornó común. En este escenario, Jennifer DeStefano jamás dudó que era su hija la que estaba al otro lado del teléfono. 

El peligro de la Inteligencia Artificial: estafadores imitaron una voz para simular un secuestro 2
“Nunca dudé que fuera ella (Briana)”, esgrimió su madre.
Créditos: latercera.com.

“Era completamente su voz. Era su inflexión. Era la forma en que ella habría llorado”, explicó al medio local Arizona ‘s Family. Además, ratificó: “nunca dudé ni por un segundo que era ella. Esa es la parte extraña que realmente me conmovió”. Ahora bien, su hija ya estaba de regreso en su casa tras patinar con su padre.

Por ello, la mujer detalló que “ella (Briana) estaba arriba en su habitación diciendo ¿qué? ¿qué está pasando?”. De esta manera, su madre cortó el teléfono tras asegurarse que la adolescente estaba fuera de peligro y la llamada fue una estafa.

La IA al servicio de la delincuencia

El FBI lideró la investigación, pero aún no logró confirmar la identidad de los falsos secuestradores. De todos modos, brindaron algunas recomendaciones para sobreponerse o incluso evitar ser víctima de este tipo de delitos. Ante esta situación, las autoridades recomendaron estar alerta por posible “phishing”.

La suplantación de identidad implicó un nuevo caso de extorsión. Por este motivo, el FBI sugirió estar atentos ante llamados con códigos de área extraños o internacionales. También señaló realizar algunas preguntas puntuales sobre el pasado de la víctima para constatar su verdadera identidad.

El peligro de la Inteligencia Artificial: estafadores imitaron una voz para simular un secuestro 3
“Escucha aquí. Tengo a tu hija. Llama a la policía, llama a cualquiera, la voy a drogar”, aseguró el estafador.
Créditos: Pexels – ph: Sora Shimazaki.

Por último, las autoridades remarcaron la importancia de ser cuidadosos con el contenido difundido en redes sociales. Los estafadores entrenan herramientas de IA con la información disponible en línea para simular voces. Aún así, resulta complejo evitar caer en estos engaños por el perfeccionamiento de la tecnología.

En consecuencia, la escala que significa el uso de la Inteligencia Artificial y sus potenciales riesgos obliga a librar una batalla por su regulación. No obstante, esto no sucede y la única salida es mantener la calma, no brindar detalles y comunicarse con el familiar para desbaratar la estafa.

Compartir:

Nota al Pie es un joven medio alternativo y autogestivo. Precisamos tu aporte para sostener el día a día de un periodismo popular que encuentra cada día más dificultades para mantenerse independiente. Con tu suscripción mensual nos ayudás muchísimo. Podés cancelarla cuando quieras. Por mail te iremos informando de los beneficios de ser parte de Nota al Pie.
¡Muchas Gracias!

Notas Relacionadas

Seguir Leyendo

Casarse en San Valentín: últimas vacantes en lugares únicos de Buenos Aires

La Ciudad ofrece a las parejas la posibilidad de dar el "sí, quiero" en sitios icónicos como Caminito, el Jardín Botánico y otros rincones emblemáticos. Con solo 24 cupos disponibles, esta edición especial del Día de los Enamorados promete ceremonias memorables.

Neil Gaiman enfrenta graves acusaciones de abuso sexual: el lado oscuro de un ícono literario

El célebre autor de "Coraline" y "The Sandman" ha sido señalado por al menos ocho mujeres por presuntos abusos cometidos durante décadas. Las denuncias han sacudido al mundo literario, mientras figuras como J.K. Rowling exigen respuestas y justicia.

Ultimas Noticias

Más del autor

Nota al Pie | Noticias en contexto