N.O.M.A.D.: la infraestructura offline que querrás tener cuando Internet deje de existir

En un contexto donde la estabilidad geopolítica ya no se da por sentada, donde conflictos híbridos, ciberataques a gran escala y apagones de infraestructura crítica han pasado de ser hipótesis a escenarios plausibles, hay una pregunta incómoda que cada vez resuena más en entornos técnicos: ¿qué ocurre cuando internet deja de estar disponible… o deja de ser fiable? No hablamos solo de caídas puntuales, sino de fragmentación de red, censura activa o entornos completamente air-gapped por necesidad. Y es precisamente en ese punto donde proyectos como N.O.M.A.D. dejan de parecer una curiosidad para convertirse en algo estratégicamente relevante.

Proyecto N.O.M.A.D. irrumpe con una propuesta que, si la analizas en profundidad, encaja perfectamente en esa narrativa de resiliencia: un nodo autónomo capaz de proporcionar computación, conocimiento estructurado e inteligencia artificial sin ningún tipo de dependencia externa. Nada de APIs, nada de sincronizaciones en segundo plano, nada de cloud. Todo local, todo auditable, todo bajo tu control. Y aquí es donde el enfoque deja de ser “maker” para entrar de lleno en terreno hacker.

A nivel técnico, lo que han montado es básicamente un stack offline coherente donde cada pieza tiene sentido dentro de un ecosistema cerrado. El uso de Ollama como backend para servir modelos de lenguaje en local no es casual: simplifica la gestión de modelos tipo LLaMA, Mistral o similares, permitiendo levantar un endpoint local con algo tan trivial como:

curl -fsSL https://ollama.com/install.sh | sh
ollama run mistral

A partir de ahí, lo interesante es cómo se articula el resto. El sistema integra un pipeline de RAG (Retrieval-Augmented Generation) sobre datasets locales —Wikipedia completa, documentación técnica, repositorios educativos— que se indexan previamente mediante embeddings. Esto implica que no estás haciendo queries tipo grep sobre dumps, sino consultas semánticas reales, con todo lo que ello conlleva en términos de eficiencia cognitiva cuando estás trabajando sin red.

CapacidadProvisto porQué obtienes
Biblioteca de InformaciónKiwixOffline Wikipedia, referencias médicas, guías de supervivencia, ebooks
Asistente AIOllama + QdrantChat integrado con carga de documentos y búsqueda semántica
Platforma de educaciónKolibriCursos de Khan Academy, seguimiento del progreso, soporte multiusuario
Mapas OfflineProtoMapsMapas regionales descargables con función de búsqueda y navegación.
Herramientas de datosCyberChefCifrado, codificación, funciones hash y análisis de datos
NotasFlatNotesToma de notas local con soporte para formato Markdown
Benchmark del SistemaBuilt-inHardware scoring, Builder Tags, y community leaderboard

La parte de almacenamiento no es menor. Un despliegue “completo” puede irse fácilmente a cientos de gigabytes si incluyes Wikipedia íntegra, cursos de Khan Academy, mapas offline (por ejemplo, tiles de OpenStreetMap renderizados localmente) y repositorios médicos. Aquí entran en juego soluciones tipo SSD NVMe en mini PCs —Intel NUC, Beelink, Minisforum— con 16–64 GB de RAM si quieres mover modelos con cierta soltura. Si bajas expectativas, una Raspberry Pi 5 puede servir, pero vas a notar rápidamente las limitaciones en inferencia.

Requisitos de Hardware

Requisitos mínimos

Procesador: Procesador de doble núcleo de 2 GHz o superior

  • Memoria RAM: 4 GB de memoria del sistema
  • Almacenamiento: Al menos 5 GB de espacio libre en disco
  • Sistema operativo: Basado en Debian (se recomienda Ubuntu)
  • Conexión a internet estable (solo necesaria durante la instalación)
Para ejecutar LLM y otras herramientas de IA incluidas:

Requisitos óptimos

  • Procesador: AMD Ryzen 7 o Intel Core i7 o superior
  • Memoria RAM: 32 GB de memoria del sistema
  • Gráficos: NVIDIA RTX 3060 o equivalente de AMD o superior (más VRAM = ejecutar modelos más grandes)
  • Almacenamiento: Al menos 250 GB de espacio libre en disco (preferiblemente en SSD)
  • Sistema operativo: Basado en Debian (se recomienda Ubuntu)
  • Conexión a internet estable (solo necesaria durante la instalación)

Para obtener recomendaciones detalladas de configuración en tres rangos de precio (entre 150 y más de 1000 dólares), consulta la Guía de hardware.

El componente de mapas offline suele apoyarse en herramientas como servidores de tiles locales o paquetes tipo MBTiles, lo que te permite consultar cartografía sin depender de servicios externos. En escenarios de campo, esto es más crítico de lo que parece. Lo mismo ocurre con CyberChef, que incluido dentro del stack añade capacidades de análisis, transformación y cifrado de datos sin necesidad de exponer nada fuera del nodo.

A nivel de red, el planteamiento es elegantemente simple: un punto de acceso WiFi levantado sobre el propio dispositivo, normalmente con hostapd + dnsmasq, sirviendo una interfaz web local. Esto convierte el nodo en una especie de “intranet portátil” a la que puedes conectarte desde cualquier dispositivo cercano. No necesitas más. Ni routers, ni salida WAN, ni nada que pueda ser intervenido aguas arriba.

El despliegue energético es otro de los puntos fuertes. Estamos hablando de consumos en el rango de 15 a 65W dependiendo del hardware, lo que hace viable alimentarlo con un pequeño panel solar y una batería tipo LiFePO4. Traducido: puedes tener un nodo de conocimiento + IA funcionando indefinidamente en un entorno aislado. Esto, en términos de OPSEC y continuidad operativa, abre escenarios muy interesantes.

N.O.M.A.D. es prácticamente un laboratorio portátil. Puedes llevarte documentación técnica, frameworks, wordlists, papers, incluso tus propios repositorios privados indexados para consulta semántica. En entornos air-gapped —industriales, militares, infraestructuras críticas— donde tradicionalmente estás vendido sin documentación externa, esto cambia completamente las reglas del juego. 

La instalación, según el repositorio, está pensada para ser reproducible con un único comando que orquesta contenedores y servicios necesarios. No hay magia: Docker/Podman por debajo, scripts de bootstrap, y bastante automatización para levantar servicios web, indexadores y modelos.

sudo apt-get update && sudo apt-get install -y curl && curl -fsSL https://raw.githubusercontent.com/Crosstalk-Solutions/project-nomad/refs/heads/main/install/install_nomad.sh -o install_nomad.sh && sudo bash install_nomad.sh

¡El proyecto N.O.M.A.D. ya está instalado en tu dispositivo! Abre un navegador y accede a http://localhost:8080 (o http://DEVICE_IP:8080) para empezar a explorar.

El verdadero cambio de paradigma aquí no es técnico, sino conceptual. Durante años hemos externalizado computación, almacenamiento e incluso conocimiento a terceros. N.O.M.A.D. es lo contrario: es traer de vuelta todo eso a local, encapsularlo y hacerlo portátil. Para el perfil hacker, esto es casi un regreso a los orígenes, pero con esteroides modernos en forma de LLMs y sistemas de recuperación semántica.

¿Es esto la solución definitiva a un mundo desconectado? Probablemente no. Pero sí es una prueba muy sólida de que podemos reconstruir piezas críticas de nuestro ecosistema digital sin depender de nadie más. Y tal y como está evolucionando el tablero global, puede que dentro de no tanto tiempo no sea una opción… sino una necesidad.

Web del proyecto: https://www.projectnomad.us/

Comentarios