추론 프로필

NemoClaw는 blueprint.yaml에 추론 프로필을 정의합니다. 프로필은 OpenShell 추론 프로바이더와 모델 라우트를 구성합니다. 샌드박스 안의 에이전트는 현재 활성화된 모델을 사용합니다. 추론 요청은 OpenShell gateway를 통해 투명하게 라우팅됩니다.

프로필 요약

프로필프로바이더모델엔드포인트용도
defaultNVIDIA 클라우드nvidia/nemotron-3-super-120b-a12bintegrate.api.nvidia.com프로덕션. NVIDIA API key 필요.

사용 가능한 모델

nvidia-nim 프로바이더는 build.nvidia.com에서 다음 모델을 등록합니다:

모델 ID라벨컨텍스트 윈도우최대 출력
nvidia/nemotron-3-super-120b-a12bNemotron 3 Super 120B131,0728,192
nvidia/llama-3.1-nemotron-ultra-253b-v1Nemotron Ultra 253B131,0724,096
nvidia/llama-3.3-nemotron-super-49b-v1.5Nemotron Super 49B v1.5131,0724,096
nvidia/nemotron-3-nano-30b-a3bNemotron 3 Nano 30B131,0724,096

기본 프로필은 Nemotron 3 Super 120B를 사용합니다. 런타임에서 카탈로그의 어느 모델로든 전환 가능합니다.

default — NVIDIA 클라우드

기본 프로필은 build.nvidia.com을 통해 NVIDIA 호스팅 API로 추론을 라우팅합니다.

  • 프로바이더 유형: nvidia
  • 엔드포인트: https://integrate.api.nvidia.com/v1
  • 모델: nvidia/nemotron-3-super-120b-a12b
  • 인증: NVIDIA_API_KEY 환경 변수

build.nvidia.com에서 API key를 발급받으세요. nemoclaw onboard 명령어가 첫 실행 시 입력을 요청하고 ~/.nemoclaw/credentials.json에 저장합니다.

$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b

런타임 모델 전환

샌드박스 실행 중에 OpenShell CLI로 모델을 전환합니다:

$ openshell inference set --provider nvidia-nim --model <model-name>

변경은 즉시 적용됩니다. 샌드박스 재시작 불필요.