ランタイムで推論モデルを切り替える
サンドボックスの稼働中に推論モデルを切り替えます。再起動は不要です。
前提条件
- 稼働中のNemoClawサンドボックス。
- OpenShell CLIが
PATHに含まれていること。
別のモデルに切り替える
プロバイダーをnvidia-nimに設定し、build.nvidia.comのモデルを指定します:
$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b
NVIDIA_API_KEY環境変数が必要です。
nemoclaw onboardコマンドが初回実行時にこのキーを~/.nemoclaw/credentials.jsonに保存します。
アクティブなモデルの確認
statusコマンドで変更を確認します:
$ openclaw nemoclaw status
--jsonフラグを付けると機械可読な出力が得られます:
$ openclaw nemoclaw status --json
出力にはアクティブなプロバイダー、モデル、エンドポイントが含まれます。
利用可能なモデル
以下はnvidia-nimプロバイダーに登録済みのモデル一覧です。
ランタイムでどれにでも切り替え可能です。
| モデルID | ラベル | コンテキストウィンドウ | 最大出力 |
|---|---|---|---|
nvidia/nemotron-3-super-120b-a12b | Nemotron 3 Super 120B | 131,072 | 8,192 |
nvidia/llama-3.1-nemotron-ultra-253b-v1 | Nemotron Ultra 253B | 131,072 | 4,096 |
nvidia/llama-3.3-nemotron-super-49b-v1.5 | Nemotron Super 49B v1.5 | 131,072 | 4,096 |
nvidia/nemotron-3-nano-30b-a3b | Nemotron 3 Nano 30B | 131,072 | 4,096 |
関連トピック
- 推論プロファイルで設定の全詳細を確認。