ランタイムで推論モデルを切り替える

サンドボックスの稼働中に推論モデルを切り替えます。再起動は不要です。

前提条件

  • 稼働中のNemoClawサンドボックス。
  • OpenShell CLIがPATHに含まれていること。

別のモデルに切り替える

プロバイダーをnvidia-nimに設定し、build.nvidia.comのモデルを指定します:

$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b

NVIDIA_API_KEY環境変数が必要です。 nemoclaw onboardコマンドが初回実行時にこのキーを~/.nemoclaw/credentials.jsonに保存します。

アクティブなモデルの確認

statusコマンドで変更を確認します:

$ openclaw nemoclaw status

--jsonフラグを付けると機械可読な出力が得られます:

$ openclaw nemoclaw status --json

出力にはアクティブなプロバイダー、モデル、エンドポイントが含まれます。

利用可能なモデル

以下はnvidia-nimプロバイダーに登録済みのモデル一覧です。 ランタイムでどれにでも切り替え可能です。

モデルIDラベルコンテキストウィンドウ最大出力
nvidia/nemotron-3-super-120b-a12bNemotron 3 Super 120B131,0728,192
nvidia/llama-3.1-nemotron-ultra-253b-v1Nemotron Ultra 253B131,0724,096
nvidia/llama-3.3-nemotron-super-49b-v1.5Nemotron Super 49B v1.5131,0724,096
nvidia/nemotron-3-nano-30b-a3bNemotron 3 Nano 30B131,0724,096

関連トピック