NanoClaw : la version legere et conteneurisee d'OpenClaw
NanoClaw est la declinaison minimaliste et conteneurisee d'OpenClaw. Meme philosophie open source, meme ecosysteme ClawHub, mais avec une empreinte reduite et une approche Docker-first. La au OpenClaw cible les developpeurs qui veulent installer un ecosysteme complet, NanoClaw s'adresse a ceux qui veulent un agent IA pret en quelques secondes : `docker run` et c'est parti. Ideal pour le edge computing, les Raspberry Pi ou les setups Kubernetes. NanoClaw partage la meme licence MIT et le meme standard de skills que son grand frere, ce qui permet de basculer facilement vers OpenClaw complet lorsque vos besoins evoluent.
Pour qui
Developpeurs DevOps, bricoleurs IoT et equipes qui veulent un agent IA embarque, portable et facile a deployer via Docker.
Entrée
Requetes HTTP vers l'API NanoClaw avec prompt, skills selectionnes et contexte optionnel.
étapes (5)
Lancer le conteneur
infoExecuter `docker run -d --name nanoclaw ghcr.io/openclaw/nanoclaw:latest` pour demarrer le conteneur en background.
Fournir une cle LLM
infoPasser votre cle API (Anthropic, OpenAI ou Ollama local) via une variable d'environnement `-e LLM_API_KEY=...`.
Monter un volume skills
infoMonter un volume local pour persister les skills ClawHub installes entre les redemarrages du conteneur.
Exposer l'API
infoOuvrir le port 3000 pour interagir avec NanoClaw via HTTP ou WebSocket depuis vos scripts et applications.
Orchestrer si besoin
infoDeployer plusieurs instances NanoClaw via Docker Compose ou Kubernetes pour scaler horizontalement.
Sortie
Reponses JSON de l'agent : actions, resultats, logs structures.
Exemple
Entrée
POST /api/v1/tasks avec `{"prompt": "Recupere la meteo de Paris et envoie-la sur mon webhook Discord"}`Sortie
NanoClaw installe le skill weather et appelle le webhook Discord configure. Retourne un JSON {status: success, duration_ms: 842}.Personnalisation
| Paramètre | Description | Valeur par défaut |
|---|---|---|
| Image Docker | Tag de l'image a utiliser (latest, stable, ou version epinglee). | latest |
| Persistance des skills | Volume Docker pour garder les skills entre redemarrages. | /data/skills |
| Mode LLM | Local via Ollama ou API distante (Anthropic/OpenAI). | Anthropic |