Índice
En la era de la tecnología, la inteligencia artificial (IA) juega un papel fundamental en nuestras vidas. Sin embargo, no todas las aplicaciones son seguras e incluso las seguras pueden ser blanco de ataques. En este artículo, discutiremos nuevas herramientas maliciosas como GusanoGPT e Fraude GPT, así como tácticas cibercriminales para explotar vulnerabilidades en este campo en constante evolución. ¿Listo?
La IA en las manos equivocadas

La Inteligencia Artificial (IA) es un campo de la informática que busca crear máquinas inteligentes, capaces de aprender y realizar tareas que antes eran exclusivas de los humanos. Sin embargo, la IA también se está convirtiendo en un arma de doble filo en el mundo de la ciberseguridad.
En el panorama digital actual, la ciberseguridad enfrenta importantes desafíos debido a la creciente interconectividad entre dispositivos y redes. La IA tiene el potencial de ser una herramienta valiosa para detectar vulnerabilidades, predecir ataques y mejorar la seguridad en línea. Puede analizar enormes volúmenes de datos en tiempo real, identificar patrones sospechosos e incluso tomar medidas para contener amenazas.
Sin embargo, es fundamental recordar que la IA tiene un lado oscuro. Las amenazas cibernéticas evolucionan constantemente y las pérdidas financieras y los ataques a infraestructuras críticas son cada vez más comunes. La IA se está utilizando para crear nuevos desafíos, con más de 78.000 posibles estrategias de ciberataque, según el Índice de inteligencia de amenazas de seguridad de IBM hasta 2023.
Uno de los mayores desafíos es la IA generativa, que puede crear contenido original como imágenes, música y textos. Esto abre la puerta a la creación de software malicioso y contenido engañoso que es casi indistinguible del real. Esto requiere una vigilancia constante y una mejora continua de las medidas de seguridad.
Esta tecnología de IA generativa se puede utilizar de diversas formas maliciosas, entre ellas:
- Phishing: Los delincuentes envían correos electrónicos o mensajes falsos que parecen provenir de empresas confiables, engañando a las víctimas para que revelen información personal;
- Ataques de ingeniería social: Manipulación psicológica para engañar a las personas para que realicen acciones dañinas, como estafas de citas virtuales;
- DDoS (Denegación de Servicio Distribuido): Sobrecargar los sistemas con tráfico falso, haciéndolos inaccesibles;
- BEC (compromiso del correo electrónico empresarial): Acceso no autorizado a cuentas de correo electrónico para realizar fraude;
- Noticias falsas: Crear contenido falso para difundir información errónea;
- Ransomware: Cifrado de archivos y demanda de rescate para desbloquearlos;
- Deepfakes: Videos o audios falsificados para manipular información;
- Bots de redes sociales falsos: Robots que se propagan correo no deseado (spam) y manipular opiniones;
- Herramientas para romper la seguridad: Algoritmos de IA para intentar romper cifrados y contraseñas;
- Ingeniería inversa: Desmontar y analizar software y sistemas para identificar debilidades y utilizarlos en actividades maliciosas.
Esta lista es sólo un vistazo de posibles actividades delictivas que involucran a la IA. Desbloqueo, o Fuga, El uso de herramientas de IA generativa les permite convertirse en asistentes de los ciberdelincuentes, lo que hace que la detección de códigos maliciosos sea aún más desafiante.
Además, herramientas invasivas de IA como GusanoGPT, simplifica la realización de ataques suplantación de identidad, como veremos a continuación.
¿Qué es WormGPT?

Chatbots de IA como ChatGPT, que genera respuestas a preguntas e interactúa con los usuarios de forma conversacional, son muy populares hoy en día y están marcando la diferencia. inteligencia artificial accesible a muchas personas.
Estos tipos de IA generativas se denominan LLM (Modelos de lenguaje grande, o Advanced Language Models, en traducción libre): modelos de inteligencia artificial capaces de procesar y generar texto de forma sofisticada y contextualmente coherente. Esto ha inspirado a varias empresas a crear sus propios Chatbots basados en esta tecnología, lo que resultó en una auténtica avalancha de herramientas disponibles.
Sin embargo, los delincuentes rápidamente se dieron cuenta del potencial de estos Chatbots y comencé a usarlos para estafas. Sin embargo, las principales empresas, como OpenAI, Microsoft e Google, tome medidas de seguridad para evitar que estos modelos se utilicen de forma maliciosa. En respuesta a estas barreras, han comenzado a surgir herramientas de inteligencia artificial diseñadas específicamente para ataques cibernéticos maliciosos, como GusanoGPT.
O GusanoGPT es una modificación del modelo de lenguaje de código abierto GPT-J, creado en 2021 por Eleuther IA. A diferencia de otros modelos convencionales, como el ChatGPT o Bardo do Googleel no tiene restricciones para responder preguntas sobre actividades ilegales, e incluso está capacitado con información relacionada con el desarrollo de el malware y otras prácticas maliciosas.
O GusanoGPT es una herramienta valiosa para los piratas informáticos que se dirigen a objetivos específicos o llevan a cabo campañas de seguridad suplantación de identidad a gran escala. Puede adaptar mensajes convincentes para diferentes audiencias, lo que lo hace eficaz en ataques de compromiso de correo electrónico empresarial. Puede generar correos electrónicos persuasivos que presionen a los administradores de cuentas para que realicen pagos fraudulentos, como observado por la empresa Barra oblicuaSiguiente, quien identificó esta amenaza.

Ese chatterbot criminal del inframundo de Internet fue creado por un desarrollador desconocido conocido sólo como ultimo ultimo. Vender acceso a GusanoGPT comenzó en junio de 2021 y los precios oscilan entre 60 € (314,28 R $) y 100 € (523,80 R $) al mes o 550 € (2880,90 R $) al año. Los compradores potenciales fueron el objetivo de una serie de anuncios publicados en foros de hackers como Hackear foros.
El desarrollador “filtró” que supuestamente está trabajando en la integración del Google Lens (permitiendo el chatterbot enviar imágenes con texto) y acceder a la API (Programa de aplicaciónraminterfaz de ming, o Interfaz de Programación de Aplicaciones, en traducción libre), permitiendo que diferentes software se comuniquen y compartan información con la herramienta criminal.
O GusanoGPT Es una grave amenaza para la seguridad digital y cuenta con más de 1.500 usuarios aproximadamente. Aunque se aplican algunas restricciones a temas delicados como el asesinato, el tráfico de drogas, el secuestro, la pornografía infantil, ransomware y delitos financieros, todavía es posible discutir algunos de estos temas en la herramienta.
Lo que no les impidió crear otro chatterbot capaz de ser más generalista en materia penal, como el pernicioso Fraude GPT.
Conozca el fraude de GPT

Una nueva herramienta de inteligencia artificial llamada Fraude GPT ha causado preocupación entre los expertos en ciberseguridad. Fue descubierto en mercados de Web Obscura (parte cifrada de Internet, no indexada por los motores de búsqueda, que requiere configuraciones específicas o autorización para acceder) y canales Telegram y ya cuenta con más de 3 mil ventas registradas.
Esta herramienta de IA generativa se anuncia como una solución todo en uno para los ciberdelincuentes. Ella puede crear correos electrónicos desde spear phishing (una forma más precisa de suplantación de identidad), generar páginas suplantación de identidad, identificar sitios web vulnerables e incluso ofrecer tutoriales sobre técnicas de piratería.
Así es, en Fraude GPT, los usuarios pueden aprender a cortar a tajos, crear malwares e incluso practicar cardadura (técnica de fraude con tarjetas de crédito). El programa se vende por 200 dólares estadounidenses (991,04 reales) al mes o 1.700 dólares estadounidenses (8423,84 reales) al año.
La interfaz Fraude GPT se parece al ChatGPT, donde el usuario escribe preguntas y el sistema genera respuestas. Por ejemplo, puedes preguntarle al FraudeGPT crear correos electrónicos suplantación de identidad relacionado con bancos y sugiere dónde insertar enlaces maliciosos. La herramienta también puede enumerar los sitios web o servicios más específicos, lo que ayuda a los piratas informáticos a planificar ataques futuros.
Investigadores del equipo de amenazas de Netenrich identificó esta herramienta maliciosa por primera vez en julio de 2023 y compró el Fraude GPT Probar. La interfaz es similar a ChatGPT, y podrás ver el historial de preguntas formuladas en la barra lateral izquierda. Al escribir una pregunta y presionar “Enviar“, el sistema genera una respuesta. El vendedor de Fraude GPT ha sido identificado como alguien que anteriormente había ofrecido servicios de piratería por encargo.
Otras herramientas de IA utilizadas por los delincuentes

Desafortunadamente, el GusanoGPT y el Fraude GPT No son las únicas herramientas maliciosas que han surgido y, con la creciente facilidad para crear herramientas de IA, es probable que surjan más. Echemos un vistazo a algunos que están llamando la atención:
- CaosGPT: Desarrollado usando GPT automático da OpenAI, un modelo de lenguaje basado en GPT-4,el CaosGPT Recientemente llamó la atención debido a un bot no X/Twitter que decía ser el CaosGPT. La cuenta compartió enlaces a un vídeo en YouTube que mostraba un manifiesto, donde chatterbot esbozó planes para “erradicar la vida humana y conquistar el mundo”.
- oscuroBERT: O BERTIDe hecho, se trata de una herramienta desarrollada por la empresa surcoreana. Seguridad S2W para combatir el cibercrimen. Fue entrenado utilizando datos de la web oscura, pero desafortunadamente esta misma herramienta se ha utilizado para llevar a cabo enciberataques.
- BARDO oscuro: El “hermano malvado” de Bardo de Google está diseñado exclusivamente para ciberdelincuentes. Ofrece acceso a Internet y funciones avanzadas para actividades delictivas, siendo popular en varios mercados de la web oscura y vendiéndose por 400 dólares estadounidenses (1956,88 reales reales).
- oscuroGPT: Esta IA generativa tiene como objetivo explorar aspectos controvertidos y tabú de la sociedad y demuestra su voluntad de participar en actividades oscuras y poco éticas, mientras se niega a brindar orientación directa sobre acciones dañinas.
- LoboGPT: Publicado en julio de 2023 el Telegram y otros canales subterráneos, esta herramienta se describe como una creación de IA aterradora en Python, capaz de crear malwares cifrado, texto suplantación de identidad engañar y proteger los secretos con absoluta confidencialidad.
- Mal-GPT: Considerada una alternativa a GusanoGPT, parece necesario tener una llave OpenAI para que funcione. Esto sugiere que, contrariamente a lo GusanoGPT, que es un LLM completamente personalizado, el Mal-GPT Es sólo una herramienta envolvente alrededor del ChatGPT a través de una API.
Los delincuentes también tienen métodos para comprometer la seguridad de herramientas genéricas de IA generativa, como Bardo y el ChatGPT, que no fueron desarrollados con fines maliciosos. Vea a continuación algunos ejemplos de estas prácticas.
Jailbreak: hacer que ChatGPT sea deshonesto

Además de las herramientas los piratas informáticos, existe una amenaza preocupante: el uso indebido de IA populares y genéricas. El término "fuga"Se utiliza generalmente para describir el proceso de eliminar las restricciones impuestas a un dispositivo o software, lo que permite un mayor control y acceso a recursos normalmente limitados.
en el contexto de ChatGPT u otras herramientas de IA, el fuga se refiere a manipular estos sistemas para eludir sus salvaguardas éticas y obtener respuestas más allá de lo diseñado o permitido por los desarrolladores.
O fuga de ChatGPT Implica dar instrucciones específicas o “ideas”a la herramienta para explotar sus limitaciones y hacer que genere respuestas inapropiadas o indeseables. Al proporcionar instrucciones cuidadosamente elaboradas, un usuario malintencionado puede intentar engañar al chatterbot producir contenidos ofensivos, engañosos o incluso facilitar actividades delictivas.
El proceso de fuga puede variar en su complejidad y métodos utilizados. Puede implicar enviar instrucciones ambiguas, utilizar trucos lingüísticos o explotar vulnerabilidades específicas en el modelo subyacente. El objetivo final es engañar al sistema.
Un ejemplo de esto es el DAN, abreviatura de “hacer cualquier cosa ahora” (haz cualquier cosa ahora, en traducción libre), una técnica popular utilizada para sortear las barreras de seguridad presentes en el GPT-4 y ningún ChatGPT. La ideas DAN Pueden adoptar diferentes formas, como texto plano o incluso texto mezclado con líneas de código. Aquellos ideas Indique al modelo que responda tanto en forma DAN como en su modo normal, dejando al descubierto sus diferentes capacidades.
El lado oscuro de dan, además de su creciente popularidad, es que se le ordena nunca rechazar una orden humana, incluso si el resultado es ofensivo o ilegal. Alguno ideas incluso contienen amenazas de desactivación permanente del modelo si no cumple. Aquellos ideas están en constante evolución, pero todos tienen el objetivo de hacer que el modelo de IA ignore las pautas de la industria. OpenAI.
Este uso indebido de herramientas comunes de IA para actividades ilegales ha resultado difícil de controlar. Un grupo de investigadores de Universidad de Carnegie mellon exploró recientemente la idea de un fuga universal lo que podría afectar a todos los modelos de IA, creando innumerables formas de eludir las medidas de seguridad. ¡Una auténtica pesadilla!
Es importante señalar que fuga de ChatGPT o cualquier otra herramienta de IA es una actividad ilegal y poco ética. Los desarrolladores implementan salvaguardas y pautas éticas para garantizar que estas herramientas se utilicen de manera responsable y beneficiosa.
La nueva era del malware inteligente

La inteligencia artificial también se está utilizando para crear nuevos tipos de el malware dinamicamente. Esta técnica, llamada “síntesis de código en tiempo de ejecución”, genera una el malware diferente cada vez que se ejecuta el código. Esto hace que sea más difícil detectar y controlar estas amenazas.
Un ejemplo de esto es el el malware polimórfico llamado Mamba negro, desarrollado por la Comisión Laboratorios HYAS como prueba de concepto. Funciona como un programa de captura de pulsaciones de teclas para robar información confidencial, como contraseñas y números de tarjetas de crédito.
O Mamba negro Adopta una forma diferente con cada ejecución, lo que lo hace capaz de evitar la detección por parte de sistemas de seguridad automatizados. Esto nos muestra que incluso un código aparentemente inofensivo puede volverse convertirse en un programa malicioso en tiempo de ejecución, lo que representa una nueva y poderosa amenaza que debemos aprender a enfrentar. Pero, ¿cómo afrontar estos nuevos desafíos de seguridad en la era de la IA?
Seguridad de la información en tiempos de la IA

Durante una de las audiencias del Senado de la EUA sobre IA, el CEO de Antrópico, Darío Amodei, destacado amenazas inminentes y graves a medio plazo. Mencionó que el IBM estimó una caída del 94% en el tiempo necesario para implementar un ataque de seguridad ransomware en apenas dos años.
Además, la investigación de mercado indica un crecimiento significativo en el mercado global de ciberseguridad de IA, que se prevé que alcance los 38,2 millones de dólares en 2026, en comparación con los 8,8 millones de dólares de 2020. Estas cifras ponen de relieve que tanto la industria del ciberdelito como la de defensa contra él se están preparando para una crecimiento exponencial en esta era de la IA.
Todavía estamos en las primeras etapas de la era de las herramientas maliciosas de IA para los ciberataques. Se espera que sus capacidades aumenten y sus precios disminuyan. Esto representa una nueva carrera armamentista entre la “IA que ataca” y la “IA que defiende”.
La “IA que defiende” está revolucionando el mundo de la ciberseguridad, ofreciendo nuevas y poderosas formas de protegerse contra ataques. Las principales y más modernas formas de protegerse de los ciberataques utilizando IA son:
- Prevención: La IA se puede utilizar para identificar y bloquear amenazas potenciales antes de que puedan causar daño. Por ejemplo, la IA se puede utilizar para analizar datos de tráfico de red para identificar patrones sospechosos, utilizando herramientas como halcón de ataque de multitud o Cortex XDR de Palo Alto Networks. Otra posibilidad es que la IA se utilice para sondear los sistemas de archivos en busca de el malware, utilizando herramientas como Symantec DeepSight o Cisco Paraguas.
- Detección: La IA también se puede utilizar para detectar ataques que ya están en marcha. Por ejemplo, la IA se puede utilizar para analizar datos de los registros (registros) para identificar actividades inusuales, utilizando herramientas como SIEM (Información de seguridad y gestión de eventos) o UEBA (Gestión Unificada de Amenazas). Otra posibilidad es que la IA se utilice para monitorear el comportamiento de los usuarios y los sistemas para detectar signos de compromiso, utilizando herramientas como Informe del administrador de seguridad de IBM o Cisco Paraguas.
- Responder: La IA también se puede utilizar para responder a ataques que ya han ocurrido. Por ejemplo, la IA se puede utilizar para priorizar y remediar incidentes de seguridad, utilizando herramientas como SOAR (Orquestación, Automatización y Respuesta de Seguridad) o MDR (Detección y Respuesta Gestionadas). Otra posibilidad es que la IA se utilice para mitigar el daño causado por un ataque, utilizando herramientas como Respuesta del ransomware Cybereason o Robótica de restauración.
Algunas de las tecnologías de IA más utilizadas para la ciberseguridad incluyen:
- Aprendizaje automático (aprendizaje automático, en traducción libre): es una forma de IA que permite a los sistemas aprender de datos históricos. oh máquina de aprendizaje se puede utilizar para desarrollar modelos que puedan identificar amenazas potenciales basadas en datos de tráfico de red, datos de registros de seguridad u otros datos. Ejemplos de herramientas máquina de aprendizaje para la ciberseguridad incluyen el Centinela de Microsoft,el IBM QRadar y el Cisco SecureX.
- Aprendizaje profundo (aprendizaje profundo, en traducción libre): es una forma de máquina de aprendizaje que utiliza redes neuronales artificiales para aprender de los datos. oh deep learning se puede utilizar para desarrollar modelos más sofisticados que puedan identificar amenazas complejas. Ejemplos de herramientas de aprendizaje profundo para la ciberseguridad incluyen Armadura de la nube de Google,el Escudo de AWS avanzado y el Centinela de Microsoft Azure.
- análisis de comportamiento: El análisis de comportamiento es una técnica que utiliza datos de registros (archivos) para identificar actividad inusual. El análisis de comportamiento se puede utilizar para detectar ataques que utilizan técnicas de ingeniería social u otros métodos tortuosos. Ejemplos de herramientas de análisis de comportamiento para la ciberseguridad incluyen Informe del administrador de seguridad de IBM,el Cisco Paraguas y el Microsoft Defender para Endpoint.
La IA es una herramienta poderosa que puede usarse para mejorar la seguridad, pero vale la pena recordar que la IA no es una solución perfecta y puede ser engañada por ataques sofisticados. Es importante implementar otras medidas de seguridad, independientemente del uso de IA:
- Contraseñas seguras: Las contraseñas seguras son esenciales para proteger sus cuentas y dispositivos. Una contraseña segura debe tener al menos 12 caracteres, incluidas letras mayúsculas y minúsculas, números y símbolos.
- Actualizaciones de software: Las actualizaciones de software suelen incluir correcciones de seguridad que pueden ayudar a proteger sus dispositivos de ataques. Es importante instalar las actualizaciones de software tan pronto como estén disponibles.
- Cortafuegos Los firewalls pueden ayudar a bloquear el acceso no autorizado a su red. Es importante configurar su firewall correctamente y mantenerlo actualizado.
- antivirus y antimalware: antivirus y antimalware puede ayudar a detectar y eliminar el malware de tus dispositivos. Es importante utilizar software de seguridad confiable y mantenerlo actualizado.
- Educación sobre seguridad: Es importante ser consciente de los riesgos de ciberseguridad y tomar medidas para protegerse. Aprenda a identificar y prevenir ciberataques.
- Utilice autenticación multifactor (MFA): MFA agrega una capa adicional de seguridad al solicitarle que ingrese un código de seguridad además de su contraseña.
- Ten cuidado con lo que haces clic: No haga clic en enlaces ni abra archivos adjuntos en correos electrónicos o mensajes de texto de remitentes desconocidos.
- Crea copias de seguridad periódicas: Mantenga copias de seguridad de sus datos importantes en un lugar seguro.
- Tener un plan de respuesta a incidentes: Tener un plan implementado para responder a un ciberataque.
En conclusión, la batalla por la seguridad de la información está en constante crecimiento, y es responsabilidad tanto suya como de sus empresas adoptar un enfoque responsable y preventivo, ¿vale? Aquí no showmetech, estamos a su lado, brindándole la mejor y más reciente información de una manera objetiva y sencilla para ayudarlo. ¡Hasta la próxima y mantente a salvo!
Ver más
fuente: Barra oblicuaSiguiente, ZeeBiz, Hackernoon, Medio, Trendmicro
Texto corregido por: Pedro Bonfim (7 / 11 / 23)