Una persona gritando al otro lado del teléfono, símil a un familiar secuestrado, que pide plata para ‘salir con vida’, o una Institución que supuestamente te ubicó por una deuda que tendrás que saldar transfiriendo un monto a un CBU proporcionado, son las estafas telefónicas más comunes tanto en Argentina como en el resto del mundo. Sin embargo, la actuación del malhechor impostando una tonalidad de voz y cierto speech para que la víctima confíe en que quien llamó es realmente quien dice ser, está siendo desplazado por las ventajas de las voces clonadas por Inteligencia Artificial (IA).
LO NUEVO
Estafas telefónicas con Inteligencia Artificial: Voces idénticas
"Hola, soy tu nieto y necesito 3.000 dólares", dice la voz al otro lado del teléfono, de quien creía que familiar, pero resultó ser obra de Inteligencia Artificial manejada por delincuentes.
"Abuela, estoy en la cárcel, sin cartera, sin teléfono. Necesito dinero para la fianza", dijo la voz que se comunicó por teléfono con la anciana canadiense Ruth Card, quien sin pensarlo -dado el sonar humano que creyó que era de su nieto- prosiguió a dirigirse a un banco para obtener el efectivo solicitado, y así poder enviarlo a través de una terminal de bitcoin.
Ruth Card, de 73 años, y su esposo, Greg Grace, de 75, fueron a un banco en Regina, Saskatchewan, y extrajeron unos US$ 3.000 canadienses (2.207 dólares estadounidenses), el máximo estipulado de retiro diario. Luego, corrieron hacia otra entidad bancaria, pero allí el gerente notó su comportamiento extraño, los llamó a su despacho y les reveló que otro cliente había sido llamado bajo la misma modalidad de falsificación de voz, por lo que era obvio que querían estafarlos.
Esta modalidad de estafa del “cuento del tío”, ya sea telefónica o a través de mensajería instantánea, en Argentina, ronda los 4.800 fraudes mensuales (con robos efectivos de 1.200 millones de pesos), así lo comunicó el Observatorio de Cibercrimen y Evidencia Digital en Investigaciones Criminales de la Universidad Austral (Ocedic). Mientras que, en Estados Unidos, existen 36,000 informes de estafados por delincuentes que usurpan la identidad de un familiar o amigo — 5100 de éstos por teléfono y US$ 11 millones de pérdidas—, así lo reportó la Comisión Federal de Comercio en el 2022.
“Hace dos años, incluso hace un año, necesitabas mucho audio para clonar la voz de una persona”, dijo Hany Farid, profesor de ciencia forense digital en la Universidad de California en Berkeley. “Ahora… si tienes una página de Facebook… o si grabaste un TikTok y tu voz está allí durante 30 segundos, la gente puede clonar tu voz”, lanzó en diálogo con The Washigton Post.
Unos padres canadienses que también cayeron en ‘el cuento del tío’, fueron los de Benjamin Perkin, quien convalidó su testimonio al The Washigton Post. Un supuesto abogado llamó a los Perkin para decirles que su hijo ‘había matado a un diplomático en un accidente automovilístico’, por lo que estaba tras las rejas y entonces necesitaba cobrar sus honorarios para proceder legalmente.
Acto seguido, el falso abogado puso al teléfono al supuesto Benjamin de 39 años –o por lo menos su voz- quien expresó que los amaba y necesitaba el dinero: unos US$21,000, antes de la cita con la corte durante el mismo día del llamado telefónico. Por lo que, los Perkin corrieron a varios bancos para extraer ese total y luego lo enviaron a través de una terminal de bitcoin al ID en cuestión.
Tal como explica el especialista informático Hany Farid, la nueva tecnología de Inteligencia Artificial en línea y con versiones gratuitas, permite no solo crear una imagen irrepetible a partir de una descripción, o bien producir una obra o mantener una conversación a partir de una temática (ChatGPT), sino que son capaces de traducir una audio de voz a otro réplica de un original, siguiendo ciertos parámetros estipulados.
La empresa ElevenLabs, compañía emergente de síntesis de voz de IA fundada en el 2022, transmuta una breve muestra de voz en una voz sintética muy humanizada generada a través de una conversión de texto a voz. Así, el uso de este software que puede ser gratuito o cuya membresía puede costar entre US$5 a US$330 mensuales, generó una sarta de fakenews, como aquel video en que se ve y escucha a Emma Watson recitando "Mein Kampf" de Adolf Hitler. Ante acusaciones públicas sociales, la compañía está incorporando medidas de seguridad y sus usuarios gratuitos ya no pueden crear voces personalizadas.
AUDIO "That girl did a video about Star Wars lipstick” (Esa chica hizo un video sobre el lápiz labial de Star Wars) Uno de los dos es humano y otro es de IA. Prácticamente son iguales:
Will Maxson, subdirector de la división de prácticas de marketing de la Comision Federal de Comercio (FTC) sostiene que rastrear a los estafadores de voz es "particularmente difícil"
Más contenido en Urgente24
Mercado pago y la inversión de bajo riesgo: Adiós plazo fijo
Arde C5N: Renunció Víctor Hugo y echaron a otro periodista
Histórica ola de calor: ¿Se suspenden las clases?
Viva Air: Anuncian medida para pasajeros con próximos vuelos