推論設定

NemoClaw 在 blueprint.yaml 中定義了推論設定檔。 設定檔配置了 OpenShell 推論提供者和模型路由。 沙箱內的代理會使用當前啟用的模型。 推論請求透過 OpenShell gateway 透明路由。

設定檔摘要

設定檔提供者模型端點用途
defaultNVIDIA 雲端nvidia/nemotron-3-super-120b-a12bintegrate.api.nvidia.com正式環境。需要 NVIDIA API key。

可用模型

nvidia-nim 提供者從 build.nvidia.com 註冊了以下模型:

模型 ID標籤上下文視窗最大輸出
nvidia/nemotron-3-super-120b-a12bNemotron 3 Super 120B131,0728,192
nvidia/llama-3.1-nemotron-ultra-253b-v1Nemotron Ultra 253B131,0724,096
nvidia/llama-3.3-nemotron-super-49b-v1.5Nemotron Super 49B v1.5131,0724,096
nvidia/nemotron-3-nano-30b-a3bNemotron 3 Nano 30B131,0724,096

預設使用 Nemotron 3 Super 120B。 你可以在運行時切換到目錄中的任何模型。

default — NVIDIA 雲端

預設設定檔將推論路由到 NVIDIA 託管的 API,透過 build.nvidia.com

  • 提供者類型: nvidia
  • 端點: https://integrate.api.nvidia.com/v1
  • 模型: nvidia/nemotron-3-super-120b-a12b
  • 憑證: NVIDIA_API_KEY 環境變數

build.nvidia.com 取得 API key。 nemoclaw onboard 指令會在首次運行時提示輸入,並存到 ~/.nemoclaw/credentials.json

$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b

在運行時切換模型

沙箱運行中,用 OpenShell CLI 切換模型:

$ openshell inference set --provider nvidia-nim --model <model-name>

變更立即生效。 不需要重啟沙箱。