Przełączanie modeli inferencji w czasie działania

Zmień aktywny model inferencji, gdy sandbox jest uruchomiony. Restart nie jest wymagany.

Wymagania wstępne

  • Działający sandbox NemoClaw.
  • CLI OpenShell w zmiennej PATH.

Przełączenie na inny model

Ustaw dostawcę na nvidia-nim i podaj model z build.nvidia.com:

$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b

Wymaga to zmiennej środowiskowej NVIDIA_API_KEY. Polecenie nemoclaw onboard zapisuje ten klucz w ~/.nemoclaw/credentials.json przy pierwszym uruchomieniu.

Weryfikacja aktywnego modelu

Uruchom polecenie status, aby potwierdzić zmianę:

$ openclaw nemoclaw status

Dodaj flagę --json dla wyników czytelnych maszynowo:

$ openclaw nemoclaw status --json

Wynik zawiera aktywnego dostawcę, model i punkt końcowy.

Dostępne modele

Poniższa tabela zawiera modele zarejestrowane u dostawcy nvidia-nim. Możesz przełączyć się na dowolny z tych modeli w czasie działania.

ID modeluEtykietaOkno kontekstuMaksymalny wynik
nvidia/nemotron-3-super-120b-a12bNemotron 3 Super 120B131 0728 192
nvidia/llama-3.1-nemotron-ultra-253b-v1Nemotron Ultra 253B131 0724 096
nvidia/llama-3.3-nemotron-super-49b-v1.5Nemotron Super 49B v1.5131 0724 096
nvidia/nemotron-3-nano-30b-a3bNemotron 3 Nano 30B131 0724 096

Powiązane tematy