推論プロファイル

NemoClawはblueprint.yamlで推論プロファイルを定義しています。 プロファイルはOpenShellの推論プロバイダーとモデルルートを設定します。 サンドボックス内のエージェントはアクティブなモデルを使用します。 推論リクエストはOpenShell gateway経由で透過的にルーティングされます。

プロファイル概要

プロファイルプロバイダーモデルエンドポイント用途
defaultNVIDIAクラウドnvidia/nemotron-3-super-120b-a12bintegrate.api.nvidia.com本番環境。NVIDIA API keyが必要。

利用可能なモデル

nvidia-nimプロバイダーはbuild.nvidia.comから以下のモデルを登録しています:

モデルIDラベルコンテキストウィンドウ最大出力
nvidia/nemotron-3-super-120b-a12bNemotron 3 Super 120B131,0728,192
nvidia/llama-3.1-nemotron-ultra-253b-v1Nemotron Ultra 253B131,0724,096
nvidia/llama-3.3-nemotron-super-49b-v1.5Nemotron Super 49B v1.5131,0724,096
nvidia/nemotron-3-nano-30b-a3bNemotron 3 Nano 30B131,0724,096

デフォルトプロファイルはNemotron 3 Super 120Bを使用します。 ランタイムでカタログ内の任意のモデルに切り替え可能です。

default — NVIDIAクラウド

デフォルトプロファイルはbuild.nvidia.com経由でNVIDIAのホストAPIに推論をルーティングします。

  • プロバイダータイプ: nvidia
  • エンドポイント: https://integrate.api.nvidia.com/v1
  • モデル: nvidia/nemotron-3-super-120b-a12b
  • 認証情報: NVIDIA_API_KEY環境変数

API keyはbuild.nvidia.comで取得してください。 nemoclaw onboardコマンドが初回実行時に入力を求め、~/.nemoclaw/credentials.jsonに保存します。

$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b

ランタイムでのモデル切り替え

サンドボックス稼働中に、OpenShell CLIでモデルを切り替えます:

$ openshell inference set --provider nvidia-nim --model <model-name>

変更は即座に反映されます。 サンドボックスの再起動は不要です。