ver más

Las 3 formas en que los empleados pueden detectar una estafa deepfake

Los empleados y consumidores están en alerta por el crecimiento de deepfake. La inteligencia artificial sigue avanzando, logrando engañar al ser humano.

La capacidad de imitar a un ser humano es ahora mucho más posible que antes. Esto se debe a que el acceso a las herramientas de IA utilizadas para crear deepfakes es mejor y esto, junto con las barreras de entrada de bajo coste, significa que las falsificaciones convincentes pueden desplegarse a escala y los empleados deben estar en alerta.

Según un informe de Sumsub Research realizado el año pasado, los incidentes globales de deepfake se han multiplicado por diez de 2022 a 2023, siendo Norteamérica la región con el mayor crecimiento de ataques de deepfake, un 1740%. Para las empresas, una preocupación clave es si un ejecutivo puede ser falsificado de forma convincente, o si un empleado "privilegiado" puede ser engañado por esa falsificación. A principios de este año, un diligente trabajador financiero de Hong Kong fue engañado para que aprobara un pago de 25 millones de dólares mediante una elaborada videoconferencia con un deepfake del director financiero de la empresa.

image.png

Empleados: cómo detectar una deepfake en cualquier ámbito

La primera es realizar una comprobación rápida de la "vitalidad": pedir a la persona que está al otro lado del vídeo que gire la cabeza de un lado a otro. Esto es eficaz hoy en día porque las herramientas de IA generativa utilizadas para producir deepfakes no crean un parecido tridimensional o de 360 grados de la persona, sólo pueden producir imágenes planas de frente. Las vistas laterales de la cabeza y la cara no se mostrarán correctamente. Así que, si los empleados sospechan, deben pedir a la persona que gire a la izquierda o a la derecha y, si la cara desaparece, colgar.

La primera es realizar una comprobación rápida de la "vitalidad": pedir a la persona que está al otro lado del vídeo que gire la cabeza de un lado a otro La primera es realizar una comprobación rápida de la "vitalidad": pedir a la persona que está al otro lado del vídeo que gire la cabeza de un lado a otro

Otros comportamientos humanos naturales que suelen observarse en una videoconferencia -alguien que se levanta y se rasca o se toca la cabeza, por ejemplo- tampoco se mostrarán correctamente con un deepfake. Esto es efectivo hoy, pero puede no serlo mañana. El rápido ritmo de desarrollo de la IA generativa significa que las herramientas mejorarán en la creación de semejanzas más realistas de las personas y sus gestos, lo que podría hacer que la comprobación de la vitalidad fuera más difícil con el tiempo. Así lo aconsejan desde CheckPoint.

image.png

Las estrategias para evitar deepfakes

Una tercera estrategia útil consiste en acordar palabras clave internas que deban comprobarse fuera de banda antes de realizar determinadas acciones, como una transferencia de dinero. En el caso del trabajador de Hong Kong, esto habría significado enviar un mensaje al director financiero con el que pensaban que estaban hablando a través de un canal completamente diferente y preguntarle: "¿Cuál es la palabra?". La respuesta que recibieran les indicaría rápidamente si el "director financiero" -y la petición que estaba haciendo- eran auténticos o no.

—————————————

Otras lecturas de Urgente24:

Inteligencia Artificial: Meta lanza su asistente para Facebook, Instagram y WhatsApp

Especialistas anticipan escasez de trabajo por avance tecnológico

Gmail presenta el cambio más esperado por todos los usuarios

La nueva actualización de WhatsApp mejorará la experiencia en un 100%

Temas

Más Leídas

Seguí Leyendo