在運行時切換推論模型

在沙箱運行中切換推論模型,不需要重啟。

前置需求

  • 一個正在運行的 NemoClaw 沙箱。
  • OpenShell CLI 在你的 PATH 上。

切換到另一個模型

將提供者設為 nvidia-nim,並指定 build.nvidia.com 上的模型:

$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b

這需要設定 NVIDIA_API_KEY 環境變數。 nemoclaw onboard 指令會在首次運行時把這組金鑰存到 ~/.nemoclaw/credentials.json

驗證目前使用的模型

執行 status 指令確認變更:

$ openclaw nemoclaw status

加上 --json 旗標可取得機器可讀的輸出:

$ openclaw nemoclaw status --json

輸出包含目前的提供者、模型和端點。

可用模型

下表列出已在 nvidia-nim 提供者上註冊的模型。 你可以在運行時切換到其中任何一個。

模型 ID標籤上下文視窗最大輸出
nvidia/nemotron-3-super-120b-a12bNemotron 3 Super 120B131,0728,192
nvidia/llama-3.1-nemotron-ultra-253b-v1Nemotron Ultra 253B131,0724,096
nvidia/llama-3.3-nemotron-super-49b-v1.5Nemotron Super 49B v1.5131,0724,096
nvidia/nemotron-3-nano-30b-a3bNemotron 3 Nano 30B131,0724,096

相關主題