Trocar Modelos de Inferência em Tempo de Execução
Altere o modelo de inferência ativo enquanto o sandbox está em execução. Não é necessário reiniciar.
Pré-requisitos
- Um sandbox NemoClaw em execução.
- O CLI do OpenShell no seu
PATH.
Trocar para um Modelo Diferente
Defina o provedor como nvidia-nim e especifique um modelo de build.nvidia.com:
$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b
Isso requer a variável de ambiente NVIDIA_API_KEY.
O comando nemoclaw onboard armazena esta chave em ~/.nemoclaw/credentials.json na primeira execução.
Verificar o Modelo Ativo
Execute o comando de status para confirmar a alteração:
$ openclaw nemoclaw status
Adicione a flag --json para saída legível por máquina:
$ openclaw nemoclaw status --json
A saída inclui o provedor ativo, o modelo e o endpoint.
Modelos Disponíveis
A tabela a seguir lista os modelos registrados com o provedor nvidia-nim.
Você pode trocar para qualquer um desses modelos em tempo de execução.
| ID do Modelo | Rótulo | Janela de Contexto | Saída Máxima |
|---|---|---|---|
nvidia/nemotron-3-super-120b-a12b | Nemotron 3 Super 120B | 131.072 | 8.192 |
nvidia/llama-3.1-nemotron-ultra-253b-v1 | Nemotron Ultra 253B | 131.072 | 4.096 |
nvidia/llama-3.3-nemotron-super-49b-v1.5 | Nemotron Super 49B v1.5 | 131.072 | 4.096 |
nvidia/nemotron-3-nano-30b-a3b | Nemotron 3 Nano 30B | 131.072 | 4.096 |
Tópicos Relacionados
- Perfis de Inferência para detalhes completos de configuração de perfil.