Profils d’inférence

NemoClaw est livré avec un profil d’inférence défini dans blueprint.yaml. Le profil configure un fournisseur d’inférence OpenShell et une route de modèle. L’agent à l’intérieur du sandbox utilise le modèle actif. Les requêtes d’inférence sont routées de manière transparente via le gateway OpenShell.

Résumé du profil

ProfilFournisseurModèleEndpointCas d’utilisation
defaultNVIDIA cloudnvidia/nemotron-3-super-120b-a12bintegrate.api.nvidia.comProduction. Nécessite une clé API NVIDIA.

Modèles disponibles

Le fournisseur nvidia-nim enregistre les modèles suivants depuis build.nvidia.com :

Model IDLabelContext WindowMax Output
nvidia/nemotron-3-super-120b-a12bNemotron 3 Super 120B131,0728,192
nvidia/llama-3.1-nemotron-ultra-253b-v1Nemotron Ultra 253B131,0724,096
nvidia/llama-3.3-nemotron-super-49b-v1.5Nemotron Super 49B v1.5131,0724,096
nvidia/nemotron-3-nano-30b-a3bNemotron 3 Nano 30B131,0724,096

Le profil par défaut utilise Nemotron 3 Super 120B. Vous pouvez passer à n’importe quel modèle du catalogue à l’exécution.

default — NVIDIA Cloud

Le profil par défaut route l’inférence vers l’API hébergée de NVIDIA via build.nvidia.com.

  • Type de fournisseur : nvidia
  • Endpoint : https://integrate.api.nvidia.com/v1
  • Modèle : nvidia/nemotron-3-super-120b-a12b
  • Identifiant : Variable d’environnement NVIDIA_API_KEY

Obtenez une clé API depuis build.nvidia.com. La commande nemoclaw onboard demande cette clé et l’enregistre dans ~/.nemoclaw/credentials.json.

$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b

Changer de modèle à l’exécution

Une fois le sandbox en cours d’exécution, changez de modèle avec le CLI OpenShell :

$ openshell inference set --provider nvidia-nim --model <model-name>

La modification prend effet immédiatement. Aucun redémarrage du sandbox n’est nécessaire.