Changer de modèle d’inférence à l’exécution
Changez le modèle d’inférence actif pendant que le sandbox fonctionne. Aucun redémarrage n’est nécessaire.
Prérequis
- Un sandbox NemoClaw en cours d’exécution.
- Le CLI OpenShell dans votre
PATH.
Passer à un modèle différent
Définissez le fournisseur sur nvidia-nim et spécifiez un modèle depuis build.nvidia.com :
$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b
Cela nécessite la variable d’environnement NVIDIA_API_KEY.
La commande nemoclaw onboard enregistre cette clé dans ~/.nemoclaw/credentials.json lors de la première exécution.
Vérifier le modèle actif
Exécutez la commande de statut pour confirmer le changement :
$ openclaw nemoclaw status
Ajoutez le drapeau --json pour une sortie lisible par machine :
$ openclaw nemoclaw status --json
La sortie inclut le fournisseur actif, le modèle et l’endpoint.
Modèles disponibles
Le tableau suivant liste les modèles enregistrés auprès du fournisseur nvidia-nim.
Vous pouvez passer à n’importe lequel de ces modèles à l’exécution.
| Model ID | Label | Context Window | Max Output |
|---|---|---|---|
nvidia/nemotron-3-super-120b-a12b | Nemotron 3 Super 120B | 131,072 | 8,192 |
nvidia/llama-3.1-nemotron-ultra-253b-v1 | Nemotron Ultra 253B | 131,072 | 4,096 |
nvidia/llama-3.3-nemotron-super-49b-v1.5 | Nemotron Super 49B v1.5 | 131,072 | 4,096 |
nvidia/nemotron-3-nano-30b-a3b | Nemotron 3 Nano 30B | 131,072 | 4,096 |
Sujets connexes
- Profils d’inférence pour les détails complets de configuration des profils.