Trocar Modelos de Inferência em Tempo de Execução

Altere o modelo de inferência ativo enquanto o sandbox está em execução. Não é necessário reiniciar.

Pré-requisitos

  • Um sandbox NemoClaw em execução.
  • O CLI do OpenShell no seu PATH.

Trocar para um Modelo Diferente

Defina o provedor como nvidia-nim e especifique um modelo de build.nvidia.com:

$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b

Isso requer a variável de ambiente NVIDIA_API_KEY. O comando nemoclaw onboard armazena esta chave em ~/.nemoclaw/credentials.json na primeira execução.

Verificar o Modelo Ativo

Execute o comando de status para confirmar a alteração:

$ openclaw nemoclaw status

Adicione a flag --json para saída legível por máquina:

$ openclaw nemoclaw status --json

A saída inclui o provedor ativo, o modelo e o endpoint.

Modelos Disponíveis

A tabela a seguir lista os modelos registrados com o provedor nvidia-nim. Você pode trocar para qualquer um desses modelos em tempo de execução.

ID do ModeloRótuloJanela de ContextoSaída Máxima
nvidia/nemotron-3-super-120b-a12bNemotron 3 Super 120B131.0728.192
nvidia/llama-3.1-nemotron-ultra-253b-v1Nemotron Ultra 253B131.0724.096
nvidia/llama-3.3-nemotron-super-49b-v1.5Nemotron Super 49B v1.5131.0724.096
nvidia/nemotron-3-nano-30b-a3bNemotron 3 Nano 30B131.0724.096

Tópicos Relacionados