Inferentieprofielen

NemoClaw wordt geleverd met een inferentieprofiel dat is gedefinieerd in blueprint.yaml. Het profiel configureert een OpenShell-inferentieprovider en modelroute. De agent in de sandbox gebruikt het actieve model. Inferentieverzoeken worden transparant gerouteerd via de OpenShell gateway.

Profieloverzicht

ProfielProviderModelEindpuntGebruikssituatie
defaultNVIDIA cloudnvidia/nemotron-3-super-120b-a12bintegrate.api.nvidia.comProductie. Vereist een NVIDIA API key.

Beschikbare modellen

De nvidia-nim-provider registreert de volgende modellen van build.nvidia.com:

Model-IDLabelContextvensterMaximale uitvoer
nvidia/nemotron-3-super-120b-a12bNemotron 3 Super 120B131.0728.192
nvidia/llama-3.1-nemotron-ultra-253b-v1Nemotron Ultra 253B131.0724.096
nvidia/llama-3.3-nemotron-super-49b-v1.5Nemotron Super 49B v1.5131.0724.096
nvidia/nemotron-3-nano-30b-a3bNemotron 3 Nano 30B131.0724.096

Het standaardprofiel gebruikt Nemotron 3 Super 120B. U kunt tijdens runtime wisselen naar elk model in de catalogus.

default — NVIDIA Cloud

Het standaardprofiel routeert inferentie naar de gehoste API van NVIDIA via build.nvidia.com.

  • Providertype: nvidia
  • Eindpunt: https://integrate.api.nvidia.com/v1
  • Model: nvidia/nemotron-3-super-120b-a12b
  • Referentie: omgevingsvariabele NVIDIA_API_KEY

Verkrijg een API key via build.nvidia.com. Het nemoclaw onboard-commando vraagt om deze sleutel en slaat deze op in ~/.nemoclaw/credentials.json.

$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b

Modellen wisselen tijdens runtime

Nadat de sandbox draait, wisselt u van model met de OpenShell CLI:

$ openshell inference set --provider nvidia-nim --model <model-name>

De wijziging wordt onmiddellijk van kracht. De sandbox hoeft niet te worden herstart.