Proyecto N.O.M.A.D. irrumpe con una propuesta que, si la analizas en profundidad, encaja perfectamente en esa narrativa de resiliencia: un nodo autónomo capaz de proporcionar computación, conocimiento estructurado e inteligencia artificial sin ningún tipo de dependencia externa. Nada de APIs, nada de sincronizaciones en segundo plano, nada de cloud. Todo local, todo auditable, todo bajo tu control. Y aquí es donde el enfoque deja de ser “maker” para entrar de lleno en terreno hacker.
A nivel técnico, lo que han montado es básicamente un stack offline coherente donde cada pieza tiene sentido dentro de un ecosistema cerrado. El uso de Ollama como backend para servir modelos de lenguaje en local no es casual: simplifica la gestión de modelos tipo LLaMA, Mistral o similares, permitiendo levantar un endpoint local con algo tan trivial como:
curl -fsSL https://ollama.com/install.sh | sh
ollama run mistralA partir de ahí, lo interesante es cómo se articula el resto. El sistema integra un pipeline de RAG (Retrieval-Augmented Generation) sobre datasets locales —Wikipedia completa, documentación técnica, repositorios educativos— que se indexan previamente mediante embeddings. Esto implica que no estás haciendo queries tipo grep sobre dumps, sino consultas semánticas reales, con todo lo que ello conlleva en términos de eficiencia cognitiva cuando estás trabajando sin red.
| Capacidad | Provisto por | Qué obtienes |
|---|---|---|
| Biblioteca de Información | Kiwix | Offline Wikipedia, referencias médicas, guías de supervivencia, ebooks |
| Asistente AI | Ollama + Qdrant | Chat integrado con carga de documentos y búsqueda semántica |
| Platforma de educación | Kolibri | Cursos de Khan Academy, seguimiento del progreso, soporte multiusuario |
| Mapas Offline | ProtoMaps | Mapas regionales descargables con función de búsqueda y navegación. |
| Herramientas de datos | CyberChef | Cifrado, codificación, funciones hash y análisis de datos |
| Notas | FlatNotes | Toma de notas local con soporte para formato Markdown |
| Benchmark del Sistema | Built-in | Hardware scoring, Builder Tags, y community leaderboard |
La parte de almacenamiento no es menor. Un despliegue “completo” puede irse fácilmente a cientos de gigabytes si incluyes Wikipedia íntegra, cursos de Khan Academy, mapas offline (por ejemplo, tiles de OpenStreetMap renderizados localmente) y repositorios médicos. Aquí entran en juego soluciones tipo SSD NVMe en mini PCs —Intel NUC, Beelink, Minisforum— con 16–64 GB de RAM si quieres mover modelos con cierta soltura. Si bajas expectativas, una Raspberry Pi 5 puede servir, pero vas a notar rápidamente las limitaciones en inferencia.
Requisitos de Hardware
Requisitos mínimos
Procesador: Procesador de doble núcleo de 2 GHz o superior
- Memoria RAM: 4 GB de memoria del sistema
- Almacenamiento: Al menos 5 GB de espacio libre en disco
- Sistema operativo: Basado en Debian (se recomienda Ubuntu)
- Conexión a internet estable (solo necesaria durante la instalación)
Requisitos óptimos
- Procesador: AMD Ryzen 7 o Intel Core i7 o superior
- Memoria RAM: 32 GB de memoria del sistema
- Gráficos: NVIDIA RTX 3060 o equivalente de AMD o superior (más VRAM = ejecutar modelos más grandes)
- Almacenamiento: Al menos 250 GB de espacio libre en disco (preferiblemente en SSD)
- Sistema operativo: Basado en Debian (se recomienda Ubuntu)
- Conexión a internet estable (solo necesaria durante la instalación)
Para obtener recomendaciones detalladas de configuración en tres rangos de precio (entre 150 y más de 1000 dólares), consulta la Guía de hardware.
El componente de mapas offline suele apoyarse en herramientas como servidores de tiles locales o paquetes tipo MBTiles, lo que te permite consultar cartografía sin depender de servicios externos. En escenarios de campo, esto es más crítico de lo que parece. Lo mismo ocurre con CyberChef, que incluido dentro del stack añade capacidades de análisis, transformación y cifrado de datos sin necesidad de exponer nada fuera del nodo.
A nivel de red, el planteamiento es elegantemente simple: un punto de acceso WiFi levantado sobre el propio dispositivo, normalmente con hostapd + dnsmasq, sirviendo una interfaz web local. Esto convierte el nodo en una especie de “intranet portátil” a la que puedes conectarte desde cualquier dispositivo cercano. No necesitas más. Ni routers, ni salida WAN, ni nada que pueda ser intervenido aguas arriba.
El despliegue energético es otro de los puntos fuertes. Estamos hablando de consumos en el rango de 15 a 65W dependiendo del hardware, lo que hace viable alimentarlo con un pequeño panel solar y una batería tipo LiFePO4. Traducido: puedes tener un nodo de conocimiento + IA funcionando indefinidamente en un entorno aislado. Esto, en términos de OPSEC y continuidad operativa, abre escenarios muy interesantes.
N.O.M.A.D. es prácticamente un laboratorio portátil. Puedes llevarte documentación técnica, frameworks, wordlists, papers, incluso tus propios repositorios privados indexados para consulta semántica. En entornos air-gapped —industriales, militares, infraestructuras críticas— donde tradicionalmente estás vendido sin documentación externa, esto cambia completamente las reglas del juego.
La instalación, según el repositorio, está pensada para ser reproducible con un único comando que orquesta contenedores y servicios necesarios. No hay magia: Docker/Podman por debajo, scripts de bootstrap, y bastante automatización para levantar servicios web, indexadores y modelos.
sudo apt-get update && sudo apt-get install -y curl && curl -fsSL https://raw.githubusercontent.com/Crosstalk-Solutions/project-nomad/refs/heads/main/install/install_nomad.sh -o install_nomad.sh && sudo bash install_nomad.sh¡El proyecto N.O.M.A.D. ya está instalado en tu dispositivo! Abre un navegador y accede a http://localhost:8080 (o http://DEVICE_IP:8080) para empezar a explorar.
El verdadero cambio de paradigma aquí no es técnico, sino conceptual. Durante años hemos externalizado computación, almacenamiento e incluso conocimiento a terceros. N.O.M.A.D. es lo contrario: es traer de vuelta todo eso a local, encapsularlo y hacerlo portátil. Para el perfil hacker, esto es casi un regreso a los orígenes, pero con esteroides modernos en forma de LLMs y sistemas de recuperación semántica.
¿Es esto la solución definitiva a un mundo desconectado? Probablemente no. Pero sí es una prueba muy sólida de que podemos reconstruir piezas críticas de nuestro ecosistema digital sin depender de nadie más. Y tal y como está evolucionando el tablero global, puede que dentro de no tanto tiempo no sea una opción… sino una necesidad.
Web del proyecto: https://www.projectnomad.us/


Comentarios
Publicar un comentario