推論プロファイル
NemoClawはblueprint.yamlで推論プロファイルを定義しています。
プロファイルはOpenShellの推論プロバイダーとモデルルートを設定します。
サンドボックス内のエージェントはアクティブなモデルを使用します。
推論リクエストはOpenShell gateway経由で透過的にルーティングされます。
プロファイル概要
| プロファイル | プロバイダー | モデル | エンドポイント | 用途 |
|---|---|---|---|---|
default | NVIDIAクラウド | nvidia/nemotron-3-super-120b-a12b | integrate.api.nvidia.com | 本番環境。NVIDIA API keyが必要。 |
利用可能なモデル
nvidia-nimプロバイダーはbuild.nvidia.comから以下のモデルを登録しています:
| モデルID | ラベル | コンテキストウィンドウ | 最大出力 |
|---|---|---|---|
nvidia/nemotron-3-super-120b-a12b | Nemotron 3 Super 120B | 131,072 | 8,192 |
nvidia/llama-3.1-nemotron-ultra-253b-v1 | Nemotron Ultra 253B | 131,072 | 4,096 |
nvidia/llama-3.3-nemotron-super-49b-v1.5 | Nemotron Super 49B v1.5 | 131,072 | 4,096 |
nvidia/nemotron-3-nano-30b-a3b | Nemotron 3 Nano 30B | 131,072 | 4,096 |
デフォルトプロファイルはNemotron 3 Super 120Bを使用します。 ランタイムでカタログ内の任意のモデルに切り替え可能です。
default — NVIDIAクラウド
デフォルトプロファイルはbuild.nvidia.com経由でNVIDIAのホストAPIに推論をルーティングします。
- プロバイダータイプ:
nvidia - エンドポイント:
https://integrate.api.nvidia.com/v1 - モデル:
nvidia/nemotron-3-super-120b-a12b - 認証情報:
NVIDIA_API_KEY環境変数
API keyはbuild.nvidia.comで取得してください。
nemoclaw onboardコマンドが初回実行時に入力を求め、~/.nemoclaw/credentials.jsonに保存します。
$ openshell inference set --provider nvidia-nim --model nvidia/nemotron-3-super-120b-a12b
ランタイムでのモデル切り替え
サンドボックス稼働中に、OpenShell CLIでモデルを切り替えます:
$ openshell inference set --provider nvidia-nim --model <model-name>
変更は即座に反映されます。 サンドボックスの再起動は不要です。