Profile inferencji

NemoClaw dostarczany jest z profilem inferencji zdefiniowanym w blueprint.yaml. Profil konfiguruje dostawcę inferencji OpenShell i trasę modelu. Agent wewnątrz sandboxa używa aktualnie aktywnego modelu. Żądania inferencji są kierowane transparentnie przez bramę OpenShell.

Podsumowanie profilu

ProfilDostawcaModelPunkt końcowyPrzypadek użycia
defaultChmura NVIDIAnvidia/nemotron-3-super-120b-a12bintegrate.api.nvidia.comProdukcja. Wymaga klucza API NVIDIA.

Dostępne modele

Dostawca nvidia-nim rejestruje następujące modele z build.nvidia.com:

ID modeluEtykietaOkno kontekstuMaksymalny wynik
nvidia/nemotron-3-super-120b-a12bNemotron 3 Super 120B131 0728 192
nvidia/llama-3.1-nemotron-ultra-253b-v1Nemotron Ultra 253B131 0724 096
nvidia/llama-3.3-nemotron-super-49b-v1.5Nemotron Super 49B v1.5131 0724 096
nvidia/nemotron-3-nano-30b-a3bNemotron 3 Nano 30B131 0724 096

Domyślny profil używa Nemotron 3 Super 120B. Możesz przełączyć się na dowolny model z katalogu w czasie działania.

default — Chmura NVIDIA

Domyślny profil kieruje inferencję do hostowanego API NVIDIA przez build.nvidia.com.

  • Typ dostawcy: nvidia
  • Punkt końcowy: https://integrate.api.nvidia.com/v1
  • Model: nvidia/nemotron-3-super-120b-a12b
  • Poświadczenie: zmienna środowiskowa NVIDIA_API_KEY

Uzyskaj klucz API z build.nvidia.com. Polecenie nemoclaw onboard prosi o ten klucz i zapisuje go w ~/.nemoclaw/credentials.json.

$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b

Przełączanie modeli w czasie działania

Po uruchomieniu sandboxa przełącz modele za pomocą CLI OpenShell:

$ openshell inference set --provider nvidia-nim --model <model-name>

Zmiana zaczyna obowiązywać natychmiast. Restart sandboxa nie jest wymagany.