deepfakes generados por ia

Crece el uso de deepfakes generados por IA en delitos de extorsión sexual

Avatar de Eduardo Rebouças
FBI advierte sobre uso de inteligencia artificial para crear deepfakes en delitos de sextorsión. Consulta qué hacer si has sido víctima de este tipo de delitos

El número de casos de extorsión sexual utilizando videos de sexo falso se ha incrementado en los últimos tiempos, como lo señala el FBI. Los estafadores hacen uso de inteligencia artificial para generar deepfakes – simulaciones de la apariencia de la víctima a partir de fotografías publicadas en las redes sociales – en las que se muestra a la persona en situaciones falsamente comprometedoras grabadas en video para extorsionarla.

Cómo determinar qué es un ciberdelito sexual, la sextorsión

El pasado lunes 5, el Agencia Federal de Inteligencia de los Estados Unidos (FBI) publicó un comunicado, advirtiendo a los usuarios de las redes sociales y similares sobre el peligro de las estafas aplicadas utilizando lo que se denomina Sextorsión, una combinación de palabras en inglés vie e extorsión, para aplicar golpes a las víctimas desprevenidas.

Los mensajes enviados por los estafadores amenazan a la víctima de que si no se le envía una cantidad de dinero, las imágenes comprometedoras en su poder serán compartidas a través de Internet con familiares, jefes y otros conocidos. Este tipo de golpe existe desde hace décadas, y los delincuentes a menudo logran obtener este tipo de imágenes a través de la ingeniería social o filtrando los datos de la víctima. También hay varios casos en los que una simple mención por parte del delincuente, alegando tener tal contenido, sin ningún tipo de prueba, es suficiente para tener éxito con el fraude.

La situación ha empeorado ahora que los estafadores comenzaron a usar deepfakes en creación videos falsos, generado por inteligencia artificial, para obtener sumas de dinero en forma de rescate o incluso la resolución de otras demandas formuladas por el agresor a víctimas de todas las edades, incluidos los menores. Dichas solicitudes incluyen el envío de imágenes reales con contenido explícito y, a partir de ese momento, los depredadores digitales continúan exigiendo nuevas imágenes y videos comprometedores, aprovechando el momento de debilidad de sus presas durante el tiempo que desean.

Inteligencia artificial, deep fake, sextorsión, cibercrimen
La agencia de inteligencia de EE. UU. emitió una advertencia sobre delitos cibernéticos el lunes. (Imagen: Embajada y Consulados de EE. UU. en Brasil)

Lo que dijo el FBI sobre las falsificaciones profundas

En un comunicado el lunes, el FBI advirtió sobre el nuevo tipo de golpe. "El FBI continúa recibiendo informes de víctimas, incluidos niños y adultos sin consentimiento, cuyas fotos o videos han sido alterados para incluir contenido explícito. Las fotos y videos luego son difundidos públicamente en las redes sociales, o en páginas de pornografía en Internet, con la intención de intimidar a las víctimas o aplicar esquemas de fraude. Sextorsión", y continuó, presentando datos alarmantes:

“En abril de 2023, el FBI observó un aumento en el número de víctimas de sextorsión que informaron haber usado imágenes o videos falsos creados a partir de contenido publicado en sus propias páginas de redes sociales o publicaciones en Internet, en posesión de estafadores que exigían:

1) Pago (por ejemplo, efectivo o tarjetas prepago) amenazando con compartir las imágenes y/o videos con familiares o amigos en las redes sociales si no se les paga; o 2) La víctima envía imágenes y/o videos reales con contenido explícito.

Si bien parecen ser seguros para publicar o compartir [en Internet], las imágenes y los videos tienen el potencial de proporcionar a los delincuentes una abundante fuente de contenido para cometer actos delictivos.

Los avances en la tecnología de creación de contenido y las fotos personales que se obtienen fácilmente en la red mundial presentan nuevas oportunidades para que estas figuras sombrías encuentren y coloquen nuevas víctimas bajo su mira. Esto los deja vulnerables a la vergüenza, la intimidación, la extorsión, la pérdida financiera e incluso la victimización de los usuarios a largo plazo”.

informe del fbi sobre Sextorsión e deepfakes.
Inteligencia artificial, deep fake, sextorsión, cibercrimen
Hay poco cuidado al compartir imágenes personales. Nunca se sabe quién tendrá acceso a ellos. (Imagen: Showmetech)

El avance de la tecnología deepfake y su fácil acceso generan preocupación

Esta situación cada vez más preocupante se ve agravada por el abundante avance de herramientas, muchas veces de código abierto o incluso por suscripción, cuya función de crear deepfakes tiene el potencial para su uso en delitos en línea, tales como Sextorsión. Combinado con una tecnología de inteligencia artificial cada vez más elaborada, la calidad de deepfakes rápidamente se acercan a la copia perfecta y al uso de esta imagen en videos falsos con el rostro de la víctima. 

Por otro lado, la mayoría de estas herramientas incluyen algún tipo de protección contra el uso abusivo de la deepfake, como un sistema de control interno, diseñado para que el programa no sea utilizado para generar “contenido inapropiado”. Desafortunadamente, muchas de estas medidas de seguridad son fáciles de eludir y hay muchas alternativas disponibles en el mercado gris que no tienen dichos candados.

“Muchas víctimas, incluidos menores de edad, no saben que sus imágenes han sido copiadas, manipuladas y distribuidas hasta que terceros las contactan para notificarles.

Luego, las fotos son enviadas directamente a las víctimas por los delincuentes y utilizadas para chantajear o aprovecharse de ellas en esquemas de sextorsión, o hasta que la persona misma las encuentre en la red. Cuando se descubren, [estas fotos] pueden traer serios perjuicios a la vida de la víctima, además de la dificultad de borrarlas antes de que tales imágenes continúen siendo compartidas en Internet”.

Una alerta general de la agencia estadounidense.

En el comunicado, el FBI hace un llamado a los usuarios a tomar medidas preventivas para que su imagen personal no sea utilizada en estafas. deepfakesi Sextorsión, advirtiendo a las posibles víctimas que por muy inocua que sea su intención al publicar una foto personal en Internet, siempre puede ser utilizada para actos turbios.

Inteligencia artificial, deep fake, sextorsión, cibercrimen
Cualquier usuario de Internet puede convertirse en víctima de un ciberdelito si no toma las precauciones necesarias. (Imagen: Showmetech)

Cómo actuar si eres víctima de un ciberdelito como Sextorsión

En los casos en que tales actividades sean detectadas por el usuario, en particular la Sextorsión, debe guardar copias de la mayor cantidad posible de pruebas del delito, como capturas de pantalla de la amenaza, mensajes de texto enviados por el estafador, grabaciones de las amenazas, correos electrónicos que documentan nombres de usuario y direcciones de correo electrónico, sitios web o nombres utilizados en redes sociales, así como como direcciones IP de los remitentes de mensajes. 

Todo esto debe ser obtenido para que se activen los cuerpos correspondientes en la búsqueda y eventual aprehensión de los delincuentes del otro lado de la pantalla. En el caso de Brasil, la Policía Federal, junto con el Ministerio de Justicia y Seguridad Pública (MJSP), con el apoyo de la Federación Brasileña de Bancos, Febraban, inauguró el año pasado el Unidad Especial de Investigación de Delitos Cibernéticos (UEICC), con el objetivo de combatir este y otros tipos de extorsión y actividades delictivas a través de Internet.

De todos modos, hay poco cuidado para no caer en la trampa del bandolerismo virtual. Si eres víctima de este tipo de delito, debes denunciarlo para que se abra una investigación. Para ello, simplemente acceda al portal de Policía civil el cual contiene todos los detalles sobre cómo enviar correctamente las pruebas obtenidas y proceder con el proceso a través de una denuncia policial (BO) del tipo correcto de ciberdelito ocurrido.  

Para otras noticias y artículos relacionados con su seguridad digital, siga el Showmtech!

Los cambios de seguridad de Pix llegan en noviembre, entiende

Fontes: Ars Technica, Policía civil, Policía Federal    

Revisado por Glaucón Vital en 7 / 6 / 23.

Suscríbete para recibir nuestras novedades:

Deja un comentario

Su dirección de correo electrónico no será publicada. Los campos necesarios están marcados con *

Puestos Relacionados