Lo que se vende de IA en la Dark Web (I) — LLMs sin censura

Durante años, la dark web ha sido un mercado de accesos, exploits y datos robados. Pero con la llegada de la IA también era inevitable que acabara en el mercado negro algunas de sus capacidades más "letales". 

Después de revisar distintos foros, canales privados y anuncios, el patrón es bastante claro. Hoy, lo que se está comercializando gira en torno a varias categorías:

  • LLMs sin censura: Modelos tipo GPT modificados para eliminar cualquier tipo de restricción.
  • Deepfake-as-a-Service: Generación de voz y vídeo lista para fraude, suplantación o extorsión.
  • Kits de phishing con IA integrada: Campañas automatizadas, personalizadas y multidioma.
  • Bots de ingeniería social: Conversaciones automatizadas que se adaptan a la víctima en tiempo real.
  • Datasets robados para entrenar modelos: Correos, chats y datos reales usados para hacer ataques más creíbles.
Este es el primero de una serie de artículos donde iremos bajando a cada una de estas capas. Y empezamos por la más visible. 

LLMs sin censura: el producto estrella

Durante meses, nombres como WormGPT o FraudGPT han ido apareciendo en conversaciones, informes y foros underground. A simple vista, parecen el equivalente criminal de ChatGPT pero la realidad es bastante más interesante: no son más inteligentes… son más "obedientes".

Es decir, la mayoría de estos modelos no son desarrollos revolucionarios. De hecho, en muchos casos están basados en modelos open source, han sido ligeramente ajustados (fine-tuning) o simplemente envueltos en interfaces sin filtros.

La diferencia clave no está en la capacidad. Está en la ausencia de límites.

Mientras que herramientas comerciales evitan generar malware, phishing o contenido fraudulento, estos modelos hacen justo lo contrario: obedecen sin cuestionar, sin filtrar, sin contexto ético.

Veamos los casos reales más famosos:

WormGPT: bajar la barrera de entrada

Uno de los primeros en popularizarse fue WormGPT. Se vendía como un generador de malware, asistente para phishing y una herramienta para campañas BEC. Nada que un experto no pudiera hacer antes. Pero aquí está el punto: ya no hacía falta ser experto.

FraudGPT: el modelo como servicio

Poco después apareció FraudGPT, con un enfoque diferente. No era solo un modelo, era un producto. Incluía:

  • generación de phishing pages
  • automatización de campañas
  • obfuscación de código
  • búsqueda de vulnerabilidades
  • incluso infraestructura asociada

Y se vendía por suscripción, como cualquier SaaS legítimo. Y aquí es donde el modelo empezó a cambiar: el cibercrimen no está adoptando la IA, está adoptando el modelo de negocio de la IA.

El efecto marca: DarkGPT, EvilGPT y compañía

Después vino lo inevitable. La proliferación. Decenas de variantes empezaron a aparecer: DarkGPT, EvilGPT, DarkBERT, etc. Muchas de ellas sin diferencias técnicas claras, revendidas por terceros o directamente scams.

Esto no es nuevo. Es el mismo patrón del malware clásico: reutilización, rebranding y mucho hype.

El detalle incómodo: también hay humo

No todo lo que se vende funciona. De hecho, en algunos casos documentados donde los accesos a estos modelos no entregaban lo prometido, se pedían pagos adicionales o simplemente desaparecían

Lo que deja una ironía interesante: Incluso en mercados criminales… hay fraude. Pero ojo... quitando el ruido, el impacto real es también bastante claro: mejores campañas de phishing (sin errores lingüísticos), automatización de tareas repetitivas, acceso a capacidades ofensivas sin conocimiento técnico y escalado de ataques con menos recursos. No podemos obviar esa realidad. 

Pero llega Mythos: un modelo muy eficiente que podría hacer tambalear la ciberseguridad

Pero no todo se mueve en las sombras de la dark web. Mientras algunos venden “GPTs sin censura” en foros, otros modelos están evolucionando en un terreno completamente distinto. Es el caso de Claude Mythos, vinculado a Anthropic, un modelo que ya no encaja sólo en la categoría de hype ni de experimento. No es un juguete rebrandeado ni un wrapper sobre APIs públicas: es tecnología avanzada que ha empezado a abrirse, no al mercado negro, sino a entornos controlados. 

Su aparición en iniciativas como el proyecto GlassWing, donde se ha ofrecido a grandes corporaciones, marca un cambio de fase: de laboratorio cerrado a despliegue estratégico. Y ahí es donde la línea empieza a difuminarse. Porque si estos modelos dejan de ser exclusivos, si se vuelven comerciales, la pregunta ya no es si serán potentes —eso está asumido—, sino cuánto tardará en aparecer una versión derivada, filtrada o replicada en los circuitos habituales. 

Porque si algo ha demostrado la historia del software ofensivo, es que lo que hoy es acceso restringido… mañana puede estar en el mercado equivocado.

Próximo artículo: En el siguiente post bajaremos a otra capa igual de interesante: Deepfake-as-a-Service: voz y vídeo como herramienta de fraude

Porque si algo está claro, es que esto no ha hecho más que empezar.

Comentarios