在運行時切換推論模型
在沙箱運行中切換推論模型,不需要重啟。
前置需求
- 一個正在運行的 NemoClaw 沙箱。
- OpenShell CLI 在你的
PATH上。
切換到另一個模型
將提供者設為 nvidia-nim,並指定 build.nvidia.com 上的模型:
$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b
這需要設定 NVIDIA_API_KEY 環境變數。
nemoclaw onboard 指令會在首次運行時把這組金鑰存到 ~/.nemoclaw/credentials.json。
驗證目前使用的模型
執行 status 指令確認變更:
$ openclaw nemoclaw status
加上 --json 旗標可取得機器可讀的輸出:
$ openclaw nemoclaw status --json
輸出包含目前的提供者、模型和端點。
可用模型
下表列出已在 nvidia-nim 提供者上註冊的模型。
你可以在運行時切換到其中任何一個。
| 模型 ID | 標籤 | 上下文視窗 | 最大輸出 |
|---|---|---|---|
nvidia/nemotron-3-super-120b-a12b | Nemotron 3 Super 120B | 131,072 | 8,192 |
nvidia/llama-3.1-nemotron-ultra-253b-v1 | Nemotron Ultra 253B | 131,072 | 4,096 |
nvidia/llama-3.3-nemotron-super-49b-v1.5 | Nemotron Super 49B v1.5 | 131,072 | 4,096 |
nvidia/nemotron-3-nano-30b-a3b | Nemotron 3 Nano 30B | 131,072 | 4,096 |
相關主題
- 推論設定了解完整的設定細節。