Inferentiemodellen wisselen tijdens runtime
Wijzig het actieve inferentiemodel terwijl de sandbox draait. Herstarten is niet nodig.
Vereisten
- Een draaiende NemoClaw sandbox.
- De OpenShell CLI op uw
PATH.
Wisselen naar een ander model
Stel de provider in op nvidia-nim en specificeer een model van build.nvidia.com:
$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b
Dit vereist de omgevingsvariabele NVIDIA_API_KEY.
Het nemoclaw onboard-commando slaat deze sleutel op in ~/.nemoclaw/credentials.json bij de eerste uitvoering.
Het actieve model verifiëren
Voer het statuscommando uit om de wijziging te bevestigen:
$ openclaw nemoclaw status
Voeg de --json-vlag toe voor machineleesbare uitvoer:
$ openclaw nemoclaw status --json
De uitvoer bevat de actieve provider, het model en het eindpunt.
Beschikbare modellen
De volgende tabel toont de modellen die zijn geregistreerd bij de nvidia-nim-provider.
U kunt tijdens runtime naar elk van deze modellen wisselen.
| Model-ID | Label | Contextvenster | Maximale uitvoer |
|---|---|---|---|
nvidia/nemotron-3-super-120b-a12b | Nemotron 3 Super 120B | 131.072 | 8.192 |
nvidia/llama-3.1-nemotron-ultra-253b-v1 | Nemotron Ultra 253B | 131.072 | 4.096 |
nvidia/llama-3.3-nemotron-super-49b-v1.5 | Nemotron Super 49B v1.5 | 131.072 | 4.096 |
nvidia/nemotron-3-nano-30b-a3b | Nemotron 3 Nano 30B | 131.072 | 4.096 |
Gerelateerde onderwerpen
- Inferentieprofielen voor volledige profielconfiguratiedetails.