Cambiar Modelos de Inferencia en Tiempo de Ejecución

Cambie el modelo de inferencia activo mientras el sandbox está en ejecución. No se requiere reinicio.

Requisitos Previos

  • Un sandbox de NemoClaw en ejecución.
  • El CLI de OpenShell en su PATH.

Cambiar a un Modelo Diferente

Establezca el proveedor a nvidia-nim y especifique un modelo de build.nvidia.com:

$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b

Esto requiere la variable de entorno NVIDIA_API_KEY. El comando nemoclaw onboard almacena esta clave en ~/.nemoclaw/credentials.json en la primera ejecución.

Verificar el Modelo Activo

Ejecute el comando de estado para confirmar el cambio:

$ openclaw nemoclaw status

Agregue el flag --json para obtener una salida legible por máquina:

$ openclaw nemoclaw status --json

La salida incluye el proveedor activo, el modelo y el endpoint.

Modelos Disponibles

La siguiente tabla lista los modelos registrados con el proveedor nvidia-nim. Puede cambiar a cualquiera de estos modelos en tiempo de ejecución.

ID del ModeloEtiquetaVentana de ContextoSalida Máxima
nvidia/nemotron-3-super-120b-a12bNemotron 3 Super 120B131,0728,192
nvidia/llama-3.1-nemotron-ultra-253b-v1Nemotron Ultra 253B131,0724,096
nvidia/llama-3.3-nemotron-super-49b-v1.5Nemotron Super 49B v1.5131,0724,096
nvidia/nemotron-3-nano-30b-a3bNemotron 3 Nano 30B131,0724,096

Temas Relacionados