リモートGPUインスタンスへのデプロイ
Brevを使って、リモートGPUインスタンス上でNemoClawを動かします。 deployコマンドがVMのプロビジョニング、依存パッケージのインストール、稼働中のサンドボックスへの接続を行います。
前提条件
- Brev CLIがインストール・認証済み。
- build.nvidia.comで取得したNVIDIA API key。
- ローカルにNemoClawがインストール済み。クイックスタートのインストール手順を参照。
インスタンスのデプロイ
警告:
nemoclaw deployコマンドは実験的機能であり、期待通りに動作しない場合があります。
Brevインスタンスを作成し、NemoClawのセットアップを実行します:
$ nemoclaw deploy <instance-name>
<instance-name>をリモートインスタンスの名前に置き換えてください(例:my-gpu-box)。
デプロイスクリプトはVM上で以下のステップを実行します:
- Dockerをインストール。GPUが検出された場合はNVIDIA Container Toolkitも。
- OpenShell CLIをインストール。
- NemoClawセットアップを実行し、gateway作成、プロバイダー登録、サンドボックス起動。
- Telegramブリッジやcloudflaredトンネルなどの補助サービスを起動。
リモートサンドボックスへの接続
デプロイ完了後、deployコマンドがリモートサンドボックスへの対話シェルを開きます。 セッションを閉じた後に再接続するには、もう一度deployコマンドを実行してください:
$ nemoclaw deploy <instance-name>
リモートサンドボックスの監視
インスタンスにSSHし、OpenShell TUIでアクティビティの監視とネットワークリクエストの承認を行います:
$ ssh <instance-name> 'cd /home/ubuntu/nemoclaw && set -a && . .env && set +a && openshell term'
推論の検証
リモートサンドボックス内でテスト用のエージェントプロンプトを実行します:
$ openclaw agent --agent main --local -m "Hello from the remote sandbox" --session-id test
GPU設定
デプロイスクリプトはNEMOCLAW_GPU環境変数でGPUタイプを選択します。
デフォルト値はa2-highgpu-1g:nvidia-tesla-a100:1です。
nemoclaw deployの実行前にこの変数を設定すると、別のGPU構成を使えます:
$ export NEMOCLAW_GPU="a2-highgpu-1g:nvidia-tesla-a100:2"
$ nemoclaw deploy <instance-name>
関連トピック
- TelegramブリッジのセットアップでTelegram経由でリモートエージェントとやり取り。
- サンドボックスアクティビティの監視で監視ツールを確認。
- コマンドリファレンスで
deployコマンドの全リファレンスを確認。