Cambiare Modelli di Inferenza a Runtime

Cambia il modello di inferenza attivo mentre la sandbox è in esecuzione. Non è necessario alcun riavvio.

Prerequisiti

  • Una sandbox NemoClaw in esecuzione.
  • La CLI di OpenShell nel tuo PATH.

Passare a un Modello Diverso

Imposta il provider su nvidia-nim e specifica un modello da build.nvidia.com:

$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b

Questo richiede la variabile d’ambiente NVIDIA_API_KEY. Il comando nemoclaw onboard salva questa chiave in ~/.nemoclaw/credentials.json alla prima esecuzione.

Verificare il Modello Attivo

Esegui il comando status per confermare la modifica:

$ openclaw nemoclaw status

Aggiungi il flag --json per un output leggibile dalla macchina:

$ openclaw nemoclaw status --json

L’output include il provider attivo, il modello e l’endpoint.

Modelli Disponibili

La seguente tabella elenca i modelli registrati con il provider nvidia-nim. Puoi passare a qualsiasi di questi modelli a runtime.

ID ModelloEtichettaFinestra di ContestoOutput Massimo
nvidia/nemotron-3-super-120b-a12bNemotron 3 Super 120B131.0728.192
nvidia/llama-3.1-nemotron-ultra-253b-v1Nemotron Ultra 253B131.0724.096
nvidia/llama-3.3-nemotron-super-49b-v1.5Nemotron Super 49B v1.5131.0724.096
nvidia/nemotron-3-nano-30b-a3bNemotron 3 Nano 30B131.0724.096

Argomenti Correlati