Cambiar Modelos de Inferencia en Tiempo de Ejecución
Cambie el modelo de inferencia activo mientras el sandbox está en ejecución. No se requiere reinicio.
Requisitos Previos
- Un sandbox de NemoClaw en ejecución.
- El CLI de OpenShell en su
PATH.
Cambiar a un Modelo Diferente
Establezca el proveedor a nvidia-nim y especifique un modelo de build.nvidia.com:
$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b
Esto requiere la variable de entorno NVIDIA_API_KEY.
El comando nemoclaw onboard almacena esta clave en ~/.nemoclaw/credentials.json en la primera ejecución.
Verificar el Modelo Activo
Ejecute el comando de estado para confirmar el cambio:
$ openclaw nemoclaw status
Agregue el flag --json para obtener una salida legible por máquina:
$ openclaw nemoclaw status --json
La salida incluye el proveedor activo, el modelo y el endpoint.
Modelos Disponibles
La siguiente tabla lista los modelos registrados con el proveedor nvidia-nim.
Puede cambiar a cualquiera de estos modelos en tiempo de ejecución.
| ID del Modelo | Etiqueta | Ventana de Contexto | Salida Máxima |
|---|---|---|---|
nvidia/nemotron-3-super-120b-a12b | Nemotron 3 Super 120B | 131,072 | 8,192 |
nvidia/llama-3.1-nemotron-ultra-253b-v1 | Nemotron Ultra 253B | 131,072 | 4,096 |
nvidia/llama-3.3-nemotron-super-49b-v1.5 | Nemotron Super 49B v1.5 | 131,072 | 4,096 |
nvidia/nemotron-3-nano-30b-a3b | Nemotron 3 Nano 30B | 131,072 | 4,096 |
Temas Relacionados
- Perfiles de Inferencia para detalles completos de la configuración de perfiles.