リモートGPUインスタンスへのデプロイ

Brevを使って、リモートGPUインスタンス上でNemoClawを動かします。 deployコマンドがVMのプロビジョニング、依存パッケージのインストール、稼働中のサンドボックスへの接続を行います。

前提条件

インスタンスのデプロイ

警告: nemoclaw deployコマンドは実験的機能であり、期待通りに動作しない場合があります。

Brevインスタンスを作成し、NemoClawのセットアップを実行します:

$ nemoclaw deploy <instance-name>

<instance-name>をリモートインスタンスの名前に置き換えてください(例:my-gpu-box)。

デプロイスクリプトはVM上で以下のステップを実行します:

  1. Dockerをインストール。GPUが検出された場合はNVIDIA Container Toolkitも。
  2. OpenShell CLIをインストール。
  3. NemoClawセットアップを実行し、gateway作成、プロバイダー登録、サンドボックス起動。
  4. Telegramブリッジやcloudflaredトンネルなどの補助サービスを起動。

リモートサンドボックスへの接続

デプロイ完了後、deployコマンドがリモートサンドボックスへの対話シェルを開きます。 セッションを閉じた後に再接続するには、もう一度deployコマンドを実行してください:

$ nemoclaw deploy <instance-name>

リモートサンドボックスの監視

インスタンスにSSHし、OpenShell TUIでアクティビティの監視とネットワークリクエストの承認を行います:

$ ssh <instance-name> 'cd /home/ubuntu/nemoclaw && set -a && . .env && set +a && openshell term'

推論の検証

リモートサンドボックス内でテスト用のエージェントプロンプトを実行します:

$ openclaw agent --agent main --local -m "Hello from the remote sandbox" --session-id test

GPU設定

デプロイスクリプトはNEMOCLAW_GPU環境変数でGPUタイプを選択します。 デフォルト値はa2-highgpu-1g:nvidia-tesla-a100:1です。 nemoclaw deployの実行前にこの変数を設定すると、別のGPU構成を使えます:

$ export NEMOCLAW_GPU="a2-highgpu-1g:nvidia-tesla-a100:2"
$ nemoclaw deploy <instance-name>

関連トピック