Perfis de Inferência

O NemoClaw vem com um perfil de inferência definido em blueprint.yaml. O perfil configura um provedor de inferência e uma rota de modelo do OpenShell. O agente dentro do sandbox usa qualquer modelo que estiver ativo. As requisições de inferência são roteadas de forma transparente através do gateway do OpenShell.

Resumo do Perfil

PerfilProvedorModeloEndpointCaso de Uso
defaultNuvem NVIDIAnvidia/nemotron-3-super-120b-a12bintegrate.api.nvidia.comProdução. Requer uma API key NVIDIA.

Modelos Disponíveis

O provedor nvidia-nim registra os seguintes modelos de build.nvidia.com:

ID do ModeloRótuloJanela de ContextoSaída Máxima
nvidia/nemotron-3-super-120b-a12bNemotron 3 Super 120B131.0728.192
nvidia/llama-3.1-nemotron-ultra-253b-v1Nemotron Ultra 253B131.0724.096
nvidia/llama-3.3-nemotron-super-49b-v1.5Nemotron Super 49B v1.5131.0724.096
nvidia/nemotron-3-nano-30b-a3bNemotron 3 Nano 30B131.0724.096

O perfil padrão usa o Nemotron 3 Super 120B. Você pode trocar para qualquer modelo do catálogo em tempo de execução.

default — Nuvem NVIDIA

O perfil padrão roteia a inferência para a API hospedada da NVIDIA através do build.nvidia.com.

  • Tipo de provedor: nvidia
  • Endpoint: https://integrate.api.nvidia.com/v1
  • Modelo: nvidia/nemotron-3-super-120b-a12b
  • Credencial: variável de ambiente NVIDIA_API_KEY

Obtenha uma API key em build.nvidia.com. O comando nemoclaw onboard solicita esta chave e a armazena em ~/.nemoclaw/credentials.json.

$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b

Trocando Modelos em Tempo de Execução

Após o sandbox estar em execução, troque de modelo com o CLI do OpenShell:

$ openshell inference set --provider nvidia-nim --model <model-name>

A alteração entra em vigor imediatamente. Não é necessário reiniciar o sandbox.