初めてのフィジカルAi。Huggingface の LeRobot の ACT model で学ぶ。
ACT モデルを、使っての Train と Predict の一連の流れを試してみる。
サイトは、下記
lerobot
githubは、
@huggingface/lerobot
インストールを、下記ページに従って行います。
lerobot/installation
virtual_env を使うと良いと思う。
$ cd
$ python3 -m virtualenv lerobot_env
$ source lerobot_env/bin/activate
おんちゃんの開発環境は、
ubuntu mate 24.04
GPU: gtx 1070
先に、pytorch 2.10.0 etc をインストールしておく。
$ python -m pip install torch==2.10.0 torchvision==2.25.0 torchaudio==2.10.0 --index-url https://download.pytorch.org/whl/cu126
lerobot のライブラリーは、最新を使うので、github 版を clone します。
あとは、git clone をして、clone したデイレクトリーへ移って、
$ cd relobot
$ python -m pip install -e .
その後、Simulations を使うので、続けて、
aloha をインストールします。
$ python -m pip install -e ".[aloha]" # or "[pusht]" for example
1. 学習データを選ぶ。
ACT 対応で、シュミレーションが有るのデータを選ぶ。
おんちゃんは、lerobot/aloha_sim_transfer_cube_human を使ってみた。
Demo が見えるので、見てみます。
git clone した、ディレクトリーで、
$ cd lerobot
$ export PYTHONPATH=$PYTHONPATH:$(pwd)/src
or
$ export PYTHONPATH=$PYTHONPATH:/home/your-id/path-to-clone/lerobot/src
$ python src/lerobot/scripts/lerobot_dataset_viz.py \
--repo-id lerobot/aloha_sim_transfer_cube_human \
--episode-index 0
start ボタンをクリックする。
--episode-index n: n は、結構あるみたい。
これで、Demo が確認できれば、あとは、 ACT model を学習させてみる。
方法が、幾つかあるが、
おんちゃんは、まず、最初に、
1) examples/tutorial/act/act_training_example.py
を使って、 train を試してみた。
ちょこっと直す。
こいつは、自分のディレクトリーへコピーして、
そこから実行出来る。
i ) train
$ export PYTHONPATH=$PYTHONPATH:/home/your-id/path-to-clone/lerobot/src
$ python act_training_example.py
ii) シュミレーションでの動作確認。
$ python act_training_example_check_sim_cui.py
とりあえず、10,000 ステップ学習させてみました。
さいしょ、アームがブルブルして、その後、向かって右側のアームが、赤いキューブを掴みに行きますが、
なかなか、まだ、つかめません。
でも、もっともっと学習させれば、成功するかも。
この、最初のアームのブルブルは、ACT につきもの様です。
ChatGTP に尋ねたら、調整方法を教えてくれます。
ぜひ、チャレンジしとうせ!!
2) 次に class ACT を直接使って、同じトレーニングデータで、train させる。
ACTConfig() を使うのに手こずったので、ここで書いておきます。
i) trainは、 jupyter notebook で、
train.ipynb
ii) シュミレーションでの動作確認。
$ python Act_check_sim_cui.py
40,000 ステップ学習させたけど、なかなか難しい。
train の仕方が、マッチしていないかも。
これはらは、github に上げました。 by nishi 2026.5.14
lerobot-my/AlohaTransferCube