Changer de modèle d’inférence à l’exécution

Changez le modèle d’inférence actif pendant que le sandbox fonctionne. Aucun redémarrage n’est nécessaire.

Prérequis

  • Un sandbox NemoClaw en cours d’exécution.
  • Le CLI OpenShell dans votre PATH.

Passer à un modèle différent

Définissez le fournisseur sur nvidia-nim et spécifiez un modèle depuis build.nvidia.com :

$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b

Cela nécessite la variable d’environnement NVIDIA_API_KEY. La commande nemoclaw onboard enregistre cette clé dans ~/.nemoclaw/credentials.json lors de la première exécution.

Vérifier le modèle actif

Exécutez la commande de statut pour confirmer le changement :

$ openclaw nemoclaw status

Ajoutez le drapeau --json pour une sortie lisible par machine :

$ openclaw nemoclaw status --json

La sortie inclut le fournisseur actif, le modèle et l’endpoint.

Modèles disponibles

Le tableau suivant liste les modèles enregistrés auprès du fournisseur nvidia-nim. Vous pouvez passer à n’importe lequel de ces modèles à l’exécution.

Model IDLabelContext WindowMax Output
nvidia/nemotron-3-super-120b-a12bNemotron 3 Super 120B131,0728,192
nvidia/llama-3.1-nemotron-ultra-253b-v1Nemotron Ultra 253B131,0724,096
nvidia/llama-3.3-nemotron-super-49b-v1.5Nemotron Super 49B v1.5131,0724,096
nvidia/nemotron-3-nano-30b-a3bNemotron 3 Nano 30B131,0724,096

Sujets connexes