Inferentiemodellen wisselen tijdens runtime

Wijzig het actieve inferentiemodel terwijl de sandbox draait. Herstarten is niet nodig.

Vereisten

  • Een draaiende NemoClaw sandbox.
  • De OpenShell CLI op uw PATH.

Wisselen naar een ander model

Stel de provider in op nvidia-nim en specificeer een model van build.nvidia.com:

$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b

Dit vereist de omgevingsvariabele NVIDIA_API_KEY. Het nemoclaw onboard-commando slaat deze sleutel op in ~/.nemoclaw/credentials.json bij de eerste uitvoering.

Het actieve model verifiëren

Voer het statuscommando uit om de wijziging te bevestigen:

$ openclaw nemoclaw status

Voeg de --json-vlag toe voor machineleesbare uitvoer:

$ openclaw nemoclaw status --json

De uitvoer bevat de actieve provider, het model en het eindpunt.

Beschikbare modellen

De volgende tabel toont de modellen die zijn geregistreerd bij de nvidia-nim-provider. U kunt tijdens runtime naar elk van deze modellen wisselen.

Model-IDLabelContextvensterMaximale uitvoer
nvidia/nemotron-3-super-120b-a12bNemotron 3 Super 120B131.0728.192
nvidia/llama-3.1-nemotron-ultra-253b-v1Nemotron Ultra 253B131.0724.096
nvidia/llama-3.3-nemotron-super-49b-v1.5Nemotron Super 49B v1.5131.0724.096
nvidia/nemotron-3-nano-30b-a3bNemotron 3 Nano 30B131.0724.096

Gerelateerde onderwerpen