Profili di Inferenza

NemoClaw include un profilo di inferenza definito in blueprint.yaml. Il profilo configura un provider di inferenza OpenShell e una route per il modello. L’agente all’interno della sandbox utilizza il modello attivo corrente. Le richieste di inferenza vengono instradate in modo trasparente attraverso il gateway OpenShell.

Riepilogo del Profilo

ProfiloProviderModelloEndpointCaso d’Uso
defaultNVIDIA cloudnvidia/nemotron-3-super-120b-a12bintegrate.api.nvidia.comProduzione. Richiede una API key NVIDIA.

Modelli Disponibili

Il provider nvidia-nim registra i seguenti modelli da build.nvidia.com:

ID ModelloEtichettaFinestra di ContestoOutput Massimo
nvidia/nemotron-3-super-120b-a12bNemotron 3 Super 120B131.0728.192
nvidia/llama-3.1-nemotron-ultra-253b-v1Nemotron Ultra 253B131.0724.096
nvidia/llama-3.3-nemotron-super-49b-v1.5Nemotron Super 49B v1.5131.0724.096
nvidia/nemotron-3-nano-30b-a3bNemotron 3 Nano 30B131.0724.096

Il profilo predefinito utilizza Nemotron 3 Super 120B. Puoi passare a qualsiasi modello nel catalogo a runtime.

default — NVIDIA Cloud

Il profilo predefinito instrada l’inferenza verso l’API ospitata di NVIDIA attraverso build.nvidia.com.

  • Tipo di provider: nvidia
  • Endpoint: https://integrate.api.nvidia.com/v1
  • Modello: nvidia/nemotron-3-super-120b-a12b
  • Credenziale: variabile d’ambiente NVIDIA_API_KEY

Ottieni una API key da build.nvidia.com. Il comando nemoclaw onboard richiede questa chiave e la salva in ~/.nemoclaw/credentials.json.

$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b

Cambiare Modelli a Runtime

Dopo che la sandbox è in esecuzione, cambia modello con la CLI di OpenShell:

$ openshell inference set --provider nvidia-nim --model <model-name>

La modifica ha effetto immediato. Non è necessario riavviare la sandbox.