Inferenzprofile

NemoClaw definiert ein Inferenzprofil in blueprint.yaml. Das Profil konfiguriert einen OpenShell-Inferenz-Provider und eine Modellroute. Der Agent in der Sandbox nutzt das jeweils aktive Modell. Inferenzanfragen werden transparent über das OpenShell-Gateway geroutet.

Profilübersicht

ProfilProviderModellEndpunktVerwendung
defaultNVIDIA Cloudnvidia/nemotron-3-super-120b-a12bintegrate.api.nvidia.comProduktion. Erfordert NVIDIA API Key.

Verfügbare Modelle

Modell-IDLabelKontextfensterMax. Ausgabe
nvidia/nemotron-3-super-120b-a12bNemotron 3 Super 120B131.0728.192
nvidia/llama-3.1-nemotron-ultra-253b-v1Nemotron Ultra 253B131.0724.096
nvidia/llama-3.3-nemotron-super-49b-v1.5Nemotron Super 49B v1.5131.0724.096
nvidia/nemotron-3-nano-30b-a3bNemotron 3 Nano 30B131.0724.096

default — NVIDIA Cloud

  • Provider-Typ: nvidia
  • Endpunkt: https://integrate.api.nvidia.com/v1
  • Modell: nvidia/nemotron-3-super-120b-a12b
  • Credential: NVIDIA_API_KEY-Umgebungsvariable
$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b

Modell zur Laufzeit wechseln

$ openshell inference set --provider nvidia-nim --model <model-name>

Die Änderung wirkt sofort. Kein Sandbox-Neustart nötig.