Orange pi 5 で Ubuntu 22.04 を試してみた。

Orange pi 5 で、 Ubuntu 22.04 Gnome Desktopを試してみた。

1. Orange Pi 5 を手に入れた。by nishi 2023.3.22
今日、Orange Pi 5 (8G) が、届いたので、早速、 Ubuntu 22.04 Gnome Desktop を、Micro SD カードに書き込んで、起動してみた。
なんとも、速い。Jetson Nano 2G とは、比較も出来ない。

2. ユーザを追加して、GUI ログインしようとしたら、失敗しました。
色々調べて、みて、どうやら、 /etc/group に、登録したユーザID が、必要なグループに入っていないのが、原因のようです。

$ cd /etc
$ grep orangepi group
ここで、orangepi が登録されているグループに、同じ様に登録されていないのが問題でした。

取り敢えず、 video、 input には、自分で追加しました。

$ sudo usermod -aG video nishi
$ sudo usermod -aG input nishi
さらに、tty、dialout も追加します。Micro-ROS Agent とのSerial 通信に必要みたい。
$ sudo usermod -aG tty nishi
$ sudo usermod -aG dialout nishi

ROS2 自作 Turtlebot3 による 草刈りロボット開発。

ROS2 自作 Turtlebot3 による 草刈りロボット開発。

ROS2 自作 Turtlebot3(foxbot_core3_r2) rtabmap_ros も一応完成したので、
草刈りロボットとしての、屋外での走行にチャレンジします。

1. 屋外でのMap
屋外での走行で、 そもそも、Static Map 作成をどうするのか?
map 自体は、 画像ソフト(Gimp等) で作成できるとのこと。
Creating map with paint(or any other image editor)
Youtube
ROS Map Editor と言うのもある。
こちらが簡単。git clone して、python3 で、そのまま起動できる。
例) ~/map4.pgm ~/map4.pgm.yaml があったら。
$ python3 MapEditor.py ~/map4

だとしたら、ただ走行可能領域のみの、空白の Map だけで良いのでは?

その状態で、GPS を元にした、robot_localization/ekf_node で、自己位置を特定して、Stereo Camera からの
rtabmap_ros/point_cloud_xyz で、 local_costmap、global_costmap に障害物情報を与えてやるだけで、
navigation2 で、1[m] 先の位置、2[m] 先の位置と、順々に走行できるのでは、ないじゃろか?
10[m] 先も、1[m] 毎に区切って行けば、OK か?

ROS2 自作 Turtlebot3(foxbot_core3_r2) Rtabmap_ros with Stereo rgbd and GPS. by T100TA #2
--- GPS を付けて、robot_localization ekf で試すを、T100TA から操作。#2 ---

ROS2 自作 Turtlebot3(foxbot_core3_r2) Rtabmap_ros with Stereo rgbd and GPS. by T100TA の続きです。

ubuntu 20.04 galactic 版へ移行しての再テスト。

ここでの動作を試す前に、ROS2 自作 Turtlebot3(foxbot_core3_r2) Rtabmap_ros with Stereo rgbd. #2 を終わらせて下さい。
上記ページで、 WiFi Lan の安定が重要だと判ったので、その点に注意して、T100TAを使っての走行テストを行います。

1. 環境。
1) Remote PC / T100TA
Ubuntu Mate 20.04
ros2: galactic
navigation2, Rviz2, multi_goals4_nav2
Wi-Fi: 2.4 [GHz]

2) SBC
Jetson Nanao 2G
Jet Pack4 .x and Ubuntu 20.04
ros2: galactic
micro-ROS Agent
Single USB Stereo Camera
GPS: AE-GYSFDMAXB
rtabmap_ros
Wi-Fi dongle: TP-Link 2.4[GHz] 150[Mbps]
USB SSD Stick

3) SOC
ESP32 Arduino
micro-ROS
IMU

4) Wi-Fi portable router
ELECOM WRH-300BK3-S

5) 自動走行プログラム。
turtlebot3_navi_my / multi_goals4_nav2

ROS2 自作 Turtlebot3(foxbot_core3_r2) Rtabmap_ros with Stereo rgbd and GPS. #2
--- GPS を付けて、robot_localization ekf で試す。続き ---

ROS2 自作 Turtlebot3(foxbot_core3_r2) Rtabmap_ros with Stereo rgbd and GPS. の続きです。
自作 Turtlebot3 自律走行に向けたプログラム。#14 の ROS2版です。

1. 環境。
1) Remote PC
Ubuntu Mate 20.04
ros2: galactic
rtabmap_ros, navigation2, Rviz2

2) SBC
Jetson Nanao 2G
Jet Pack4 .x and Ubuntu 20.04
ros2: galactic
micro-ROS Agent
Single USB Stereo Camera
GPS: AE-GYSFDMAXB
USB SSD Stick

3) SOC
ESP32 Arduino
micro-ROS
IMU

4) 自動走行プログラム。
turtlebot3_navi_my / multi_goals4_nav2

1. galactic 版へ移行しての再テスト。by nishi 2023.3.2
galactic だと、 foxy版で出た、navigation2 の不具合などは、まるきりでなくて、すんなり動いた。

ちょと、走行テストをしていたら、たまに、 navigation2 を動かしている Remote PC と、foxbot_core3_r2 の通信が切断されるようです。
これは、改善しないと、まともにテストできましぇん。

方法は、Remote PC 上で、navigation2 を動かす時は、 heart beat を出すプログラムを同時に動かして、foxbot_core3_r2 からこの、
heart beat を取れなくなったら、モータドライブを止めて、heart beat が回復するのを待つ。

Jetson Nano 2G の boot device について。

Jetson Nano 2G の boot device について。

余りに、Micro SD カードが壊れるので、おんちゃんも、ついに、 USB SSD に移行しました。
ELECOM SSD 128GB / ESD-EMN0128GBKR
READ 400 MB/s、 WRITE 250 MB/S
近くのヤマダ電気で、 3,056 円 でした。
Jetson Nano 2G の USB2.0 ポート直挿しで、OK でした。

参考にしたのは、
Jetson Nano 2G をSSDから起動させる(USBブート) ですが、
SSD 起動に移行して、 Jetson Nano 2G の起動を眺めていると、どうやら、 SD card が無い場合は、順繰り次の boot デバイスを選択するようになっているみたいぞね。

だから、最初から、 SSD から起動すればよかっただけみたい。
Flashing to a USB Drive
To set up a flash drive manually for booting

ROS2 自作 Turtlebot3(foxbot_core3_r2) で、Rtabmap_ros with Stereo rgbdを試す。#2

------ Jetson Nano 2G の SDCHが壊れたので、新しいカードへ移したら、問題がでた。 --------

ROS2 自作 Turtlebot3(foxbot_core3_r2) で、Rtabmap_ros with Stereo rgbdを試す。 の続きです。

環境
SBC
Jetson Nano 2G
Jetpack 4.x and ubuntu 20.04
ROS2: Galactic

Remote PC
Ubuntu Mate 20.04
ROS2:Galactic

Jetson Nano 2G の Micro SDHC を新しくして、同じ様に、 rtabmap-ros-with-stereo-rgbd が動作するようにしたのですが、
何故か、リモートPC から、/cloudXYZ(rtabmap_ros/point_cloud_xyz /cloud) が、以前のように安定して受信出来なくなりました。

$ ros2 topic hz /cloudXYZ

で、最初の30件から40件くらいは、15[hz] で受信できるのに、その後が、殆ど受信出来なくなってしまいました。
おまけに、 /disparity (stereo_image_proc.launch.pyの出力) に至っては、Remote PC からまるっきり受信できません。
どちらも、local の SBC(Jetson Nano 2G) 上では、問題なく受信できています。どちらも、 15[hz] 位、出ています。

Ubuntu mate 20.04 bluetooth APTX インストール

Ubuntu mate 20.04 に、bluetooth APTX をインストールしてみました。

Ubuntu 20.04 と同じ方法で、大丈夫でしたが、GUI での操作方法は、異なりました。

参考にしたのは、
こちら

$ sudo add-apt-repository ppa:berglh/pulseaudio-a2dp

注) 削除方法は、
$ sudo add-apt-repository --remove ppa:berglh/pulseaudio-a2dp
【Ubuntu】PPAを追加・削除する方法について

$ sudo apt update

$ sudo apt install libldac pulseaudio-modules-bt
$ sudo apt install --reinstall libavcodec-extra58 libfdk-aac1 bluez pulseaudio

$ pulseaudio -k
$ pulseaudio --start

ROS2 自作 Turtlebot3(foxbot_core3_r2) Rtabmap_ros with Stereo rgbd and GPS. by T100TA
--- GPS を付けて、robot_localization ekf で試すを、T100TA から操作。 ---

ROS2 自作 Turtlebot3(foxbot_core3_r2) Rtabmap_ros with Stereo rgbd and GPS. の続きです。

前回、SBC(Jetson Nano 2G) で、全て起動して、Remote PC からは、ssh2 で、SBCにログインして、launch の起動と、Rviz2の表示だけを行いましたが、
Remote PC を、ASUS Tablet(T100TA) に変えて同じ操作を行いました。

一応、ロボットは、完走できましたが、navigation2 のログ表示に、結構 ERROR、WARN がでているので、それの考察です。

しかし、T100TA にすると、このようになるのか? 疑問ぞね。

とほほの、Windows XP マザーボード交換。

とほほの、Windows XP マザーボード交換。

Java Applets で請求書を印刷している、超古い XP のマザーボードが壊れたので、急遽、マザーボード交換するはめになりした。

参考ページは、
以前にもおせわになった、OSそのままマザーボード交換の方法 です。
ところが、Microsoft の肝心のページが無い。

Mergeide.reg というファイルが作れないと苦心していたら、 インターネットに結構公開されているようだ。

github.com/tarao

ROS2 自作 Turtlebot3(foxbot_core3_r2) Rtabmap_ros with Stereo rgbd and GPS.
--- GPS を付けて、robot_localization ekf で試す。 ---

ROS2 自作 Turtlebot3(foxbot_core3_r2) Rtabmap_ros with Stereo rgbd. の続きです。
自作 Turtlebot3 自律走行に向けたプログラム。#14 の ROS2版です。

1. 環境。
1) Remote PC
Ubuntu Mate 20.04
ros2: foxy
rtabmap_ros, navigation2, Rviz2
注1) foxy navigation2 には、不具合があるので、パッチが必要。後述。
注2) ubuntu 20.04 で、ros2 galactic が使えるみたい。こちらの方が良いと思います。by nishi 2023.1.17

2) SBC
Jetson Nanao 2G
Jet Pack4 .x and Ubuntu 20.04
ros2: foxy
micro-ROS Agent
Single USB Stereo Camera
GPS: AE-GYSFDMAXB

3) SOC
ESP32 Arduino
micro-ROS
IMU

2. foxbot_core3_r2.ino のビルド。
foxbot_core3_r2_config.h を、下記にして、ESP32 へ書き込みます。
詳しい事は、ROS2 で、ESP32(Arduino) を使う。 を参照。

foxbot_cor3_r2 からは、tf-base_footprint を出力しません。
IMU は、出力します。

ROS2 自作 Turtlebot3(foxbot_core3_r2) で、Rtabmap_ros with Stereo rgbdを試す。
--- 上記、自作ロボットに、navigation2 を組み込んで、Active SLAM で、C++ プログラム制御で、部屋の中を計画コース通りに走らせる。----

ROS2 で、ESP32(Arduino) を使う。 の続きです。

予めMap を作成していないので、同時に、Active Mapping で、地図も作成します。
一応、上記仕様で、自作 Turtlebot3(foxbot_core3_r2) が、動かせるようになったので、書いてみました。

1. 環境。
1) Remote PC
Ubuntu Mate 20.04
ros2: foxy galactic
rtabmap_ros, navigation2, Rviz2
注) foxy navigation2 には、不具合があるので、パッチが必要。後述。
注2) ubuntu 20.04 で、galactic が使えるので、こちらの方が良い。by nishi 2023.1.21
しかし、なぜか、galactic 版は、EOL になっているみたい。
humble/Releases
どうすりゃいいんじゃ?

EOL 版でも大丈夫みたいぞね。
下記で、eol 版の galactic 版も、同じようにビルドできます。
$ rosdep update --rosdistro=${ROS_DISTRO} && rosdep install --from-path src --ignore-src -y
rosdep オプション

2) SBC
Jetson Nanao 2G
Jet Pack4 .x and Ubuntu 20.04
ros2: foxy galactic
micro-ROS Agent
Single USB Stereo Camera

3) SOC
ESP32 Arduino
micro-ROS
IMU

2. foxbot_core3_r2.ino のビルド。
foxbot_core3_r2_config.h を、下記にして、ESP32 へ書き込みます。
詳しい事は、ROS2 で、ESP32(Arduino) を使う。 を参照。

ROS2 で、Rtabmap_ros を試す。#2

ROS2 で、Rtabmap_ros を試す。#2
--- ROS2 & Rtabmap_ros で、Gazbo Turtlebot3 with Scan (Acitve SLAM も可) ---
Foxy devel Rtabmap_ros を参考に、rtabmap_ros で、ROS2 Gazebo Turtlebot3 with Scanを、動かしてみました。
PC 環境:
Ubuntu Mate 20.04
ROS2 :foxy

1. 手順。
Example with Turtlebot3 を参考にすればできます。
$ ros2 launch turtlebot3_gazebo turtlebot3_house.launch.py

$ ros2 launch rtabmap_ros rtabmap.launch.py \
visual_odometry:=false \
frame_id:=base_footprint \
subscribe_scan:=true depth:=false \
approx_sync:=true \
odom_topic:=/odom \
scan_topic:=/scan \
qos:=2 \
args:="-d --RGBD/NeighborLinkRefining true --Reg/Strategy 1" \
use_sim_time:=true \
rviz:=true

Teleop keyboard を起動して操作。
$ ros2 run turtlebot3_teleop teleop_keyboard

ROS2 で navigation2 の Active SLAM を試す。

ROS2 で navigation2 の Active SLAM を試す。
--- ROS2 Gazbo Turtlebot3 で、Mapping しながら、 Navigationでロボットを動かす。 ---

(SLAM) Navigating While Mapping を参考に、ROS2 Gazebo Turtlebot3 を、動かしてみました。
PC 環境:
Ubuntu Mate 20.04
ROS2 :foxy

1. Gazebo turtlebot3_house Waffle の準備。

$ ros2 launch turtlebot3_gazebo turtlebot3_house.launch.py
で、Gazebo House が起動出来ますが、ロボットの起点がちょっと、ROS と比べて変なので、修正します。
~/colcon_ws/src/turtlebot3_simulations/turtlebot3_gazebo/worlds/turtlebot3_houses/waffle.model


注)ロボットの pose(位置と向き) は、tf base_footprint が、 tf odom の pose からの距離と向きの差で決まる。ので、tf odom を起点とした値を使います。
tf odom の x 軸は、ロボットの前、後、 y軸は、ロボットの左右になっていて、Rviz2 の開始時の画面が、90[度] 左に回転しているのがややこしいが、
Rviz2 の開始時の画面を、90[度] 右に回転すれば、理解しやすい。
tf base_footprint は、tf odom から、後ろに 3[m] (x軸で、-3.0) 、左に 1.0[m] (y軸で、+1.0) になります。これが、起動時のロボットの位置になります。
z軸=0.01 は、ちょっと浮かせているのかな? 向きは、変わらず。

tf odom は、tf map からの距離と、向が与えられる。
tf map は、 Map原点(左、下が 0,0) からの距離が、Map データ上から与えられる。
注)全ては、MAP 情報の定義で自由に決まる。
Turtlebot3 Gazebo の MAP 定義が上記のようになっているだけです。

2. (SLAM) Navigating While Mapping の 4- Getting Started Simplification を参考に、

$ ros2 launch nav2_bringup tb3_simulation_launch.py slam:=True
すれば、Gazbo も一緒に起動できるようですが、
なぜか、おんちゃんが試すと、Gazebo が起動途中でだんまりになります。

ROS2 で、Rtabmap_ros を試す。

ROS2 で、 Rtabmap_ros を試す。
--- Jetson Nano 2G でのBuild トラブルの巻。---

Jetson nano 2G
Jetpack4.x and ubuntu 20.04
ROS2: galactic

rtabmap_ros/ros2
Ubuntu Mate 20.04 で、Rtabmap_ros のソースビルドが出来たので、

1. 次は、Jetson Nano 2G で、Rtabmap_ros のソースビルドを行って見たのですが、
これがなかなかうまく行かない。

84[%] 辺りまで進んで、それからずっと進まない。
途中で、なんやら変なエラー表示が出てくる。

ROS2 で、ESP32(Arduino) を使う。

ROS2 で、ESP32(Arduino) を使う。
--- Turtlebot3 の自作 を、 ROS2 に移植する。 ---
前回の、自作 Turtlebot3 自律走行に向けたプログラム。#15 で、ROS の限界を感じたので、ROS2 を試す事にしました。

1. 環境。
PC
Ubuntu Mate 20.04
ros2: foxy galactic
SBC
Jetson Nano 2G
JetsPack 4.x and Ubuntu 20.04
ros2: foxy galactic

注1) foxy navigation2、teb_local_planner には、不具合があるので、パッチが必要になる。
注2) ubuntu 20.04 で、galactic が使えるので、こちらの方が良い。by nishi 2023.1.21
しかし、なぜか、galactic 版は、EOL になっているみたい。
foxy/Releases

EOL 版でも大丈夫みたいぞね。
下記で、eol 版の galactic 版も、同じようにビルドできます。
$ rosdep update --rosdistro=${ROS_DISTRO} && rosdep install --from-path src --ignore-src -y
rosdep オプション

2. ros2arduino を試す。
どうやら、こちらは、開発が止まっているようです。
ESP32 にサンプルを入れて試してみましたが、うまく行かないので、止めました。
ESP32 Serial は、まだ使えないままの様です。

上記をテストするのに、eProsima Micro XRCE-DDS が必要な様で、試しにインストールしてみましたが、
次の micor-ROS を試す段階で、/usr/local/lib/libfastrtps.so /usr/local/lib/libfastrtps.so.2.8.0 が競合するようで、
削除する事にしましたが、あいにく make uninstall が無いので、削除するのが大変でした。
$ sudo make install すると、Micro-XRCE-DDS-Agent/build/install_manifest.txt にインスしたファイル一覧があるので、
Shell で、これを読みこんで、削除しました。

uninstall_from_files.sh


$ sudo sh ./uninstall_from_files.sh
$ sudo ldconfig /usr/local/lib

自作 Turtlebot3 自律走行に向けたプログラム。#15

自作 Turtlebot3 自律走行に向けたプログラム。#15
--- 自作 Turtlebot3 (foxbot_core3) で、屋外での走行 ---

1. 屋外走行に向けて。
いま、おんちゃんの頭の中には、屋外で、自作 Turtlebot3(foxbot_core3) を走らせる為のハード機器の構成をどうするかで、
一杯ぞね。
ロボット自体のコントロールは、C++プログラムから行うので、自律走行になりますが、せめて、ロボットの Start、Stop、
Go back home くらいは、PC タブレットから、WiFi 経由で ロボットに指示したいです。

Windows PC タブレットを安く手に入れて、其れに Ubuntu 20.04 をインストールして、今、部屋で PCに載せている部分を、
それに入れられれば、一番簡単そうですが。
なかなか、安い Windows PC タブレット だと、荷が重いかも?
最終的には、ロボットカーの方に、全部乗っけて、Start/Stop の操作コマンドだけを送る構成にしないといかんぞね。

なんと、Linux デスクトップアプリが動く、 Linuxスマホ - pinePhone がありました。
これなら、簡単にできそう。

取り敢えず、おんちゃんは、メルカリで、 ASUS TransBook T100TA をそれなりの価格で買ったきに、
Xubuntu 辺りが乗りそうなので、これでトライしてみます。
ASUS TransBook T90chiにXubuntuを入れてみました。キーボードドックも使えるようになりました。
T100TA ubuntu インストールは、下記が参考になるみたい。
T100TA_guide.md
OSをふっとばされたタブレットPCにUbuntuを入れてみた

自作 Turtlebot3 自律走行に向けたプログラム。#14

自作 Turtlebot3 自律走行に向けたプログラム。#14
--- 自作 Turtlebot3 (foxbot_core3) で、GPS( gysfdmaxb ) を使ってみる。 ---

手持ちに、gysfdmaxb があったので、これを使って、自作 Turtlebot3 (foxbot_core3) の GPS として試してみました。
みちびき(QZSS) の受信ができると言うので、ずっと前に買って、少し試して、そのままだったのですが、
自作 Turtlebot3 自律走行に向けたプログラム。#13 で、Gazbo Trutlebot3 で、GPSプラグインを試したので、こんどは、
実機でどうなのかと試してみました。
ただ、測位確度:2m の様なので、期待は、していませんが、robot_localization/ekf_localization_node で、
Fusionしたらどうなのか、試してみました。

結論から言えば、部屋の中で、2[M] 行って、元の位置へ帰ってくるテストでは、なぜかうまく動いているようです。
次は、屋外で、100[M] 位プログラムで自動走行させてみたくなりました。

さて、ROSでの使用方法ですが、インターネットで、ros gysfdmaxb で検索しても出てこないので、結局自分で作る事にしました。

GPSデータをrostopicとして取り扱う 辺りを参考に github.com/KumarRobotics/ublox をベースに作ってみました。
でも、却って、結構大変でした。
callback ルーチンの使い方と、boost::asio::io_service、boost::asio::serial_port を使った Serial I/O が初めてだったので、
それを真似して、C++ の勉強にはなりました。

開発環境
Remote PC:
 Ubuntu Mate 20.04
 ros noetic

SBC:
Jetson Nano 2G
 Ubuntu 20.04 and Jetpack 4.0
 ros noetic
 Moter Controll : ESP32
 IMU、USB Serial Stereo Camera
 rtabmap_ros、move_base、ebnad_local_planner

自作 Turtlebot3 自律走行に向けたプログラム。#13

自作 Turtlebot3 自律走行に向けたプログラム。#13
--- Gazebo Turtlebot3 burger で、GPS を使ってみる。 ---

ROS IMUとGPSのGazeboプラグインを使う に、Gazebo で、GPS を使う例があったので、試してみました。

1. GPS プラグインの組み込み。
パッケージ版があったので、おんちゃんは、こちらををつかってみました。

$ sudo apt install ros-noetic-hector-gazebo-plugins

2. URDF の作成。
URDF は、上記ページにも例がありますが、おんちゃんは、以前、IMU、Camera を組み込んだ例に習って、今回も作りました。

catkin_ws/src/turtlebot3/turtlebot3_description/urdf/gps_macro.xacro

注) 使えるパラメータは、hector_gazebo_plugins に、記載があります。
注2) frameId
<frameID>${prefix}_link</frameID> --- Bad
<frameId>${prefix}_link</frameId> --- OK

自作 Turtlebot3 自律走行に向けたプログラム。#12

自作 Turtlebot3 自律走行に向けたプログラム。#12
--- Gazebo Turtlebot3 burger で、C++プログラムによる自律走行でMap を自動作成する 2。 ---

前回、自作 Turtlebot3 自律走行に向けたプログラム。#11 で、rtabmap_ros with Depth Camera の /map の 、
未知領域 と自由領域の境界を目標にロボットを走行させて、2D Map を自動作成しましたが、今回は、障害物の領域のみを使ってみます。

1. 開発環境
PC
  Ubuntu Mate 20.04
  ROS:noetic
  Gazebo Turtlebot3 with Depth Camera、Rtabmap_ros

2. アルゴリズム。
1) /map から、障害物のみを2値画像に変換して、それを、ブロブ化します。
2) 上記ブロブの外周を辿って、一定間隔でアンカーを付けて、そこへロボットを行かせて、/map を更新します。
注1) 『OpenCVによる画像処理入門』(講談社) P157 周囲長 を求める処理を参考にします。
3) ロボットを向かわせる地点は、上記アンカーから、半径Rのマスク処理を、今度は、非障害物に対して行って、その重心の方向へ、ロボットを動かした点とします。
4) ロボットを向かわせている途中、到着点が、障害物に含まれるか近接した場合は、その場所は、止めて、ロボットを次の候補地に向かわせます。
5) ロボットを向かわせる候補地は、ロボットから近い順に選びます。
6) 少し大きめのブロックで、/map を分割して、一度行った所はチェックして、次からは行かないようにします。

アルゴリズムは、簡単じゃ、後は、プログラムで試すのみじゃ。
当初のアルゴリズムは、ちょっと無理だったので、変更したぞね。by nishi 2022.8.16

但し、オンちゃんの GPU が壊れたのでちょっと、意気消沈しちょります。
GPUが買える迄、CPU オンリーで試すしかないぞね!!

自作 Turtlebot3 自律走行に向けたプログラム。#11

自作 Turtlebot3 自律走行に向けたプログラム。#11
--- Gazebo Turtlebot3 burger で、C++プログラムによる自律走行でMap を自動作成する。 ---

自作 Turtlebot3 自律走行に向けたプログラム。#10 で、Gazebo & Turtlebot3 burger with Depth Camera and Rtabmap_ros だと、
床が自由領域だと判定できるのが判ったので roslaunch turtlebot3_gazebo turtlebot3_house.launch で、
Burger を起動して、全て C++プログラムで、Houseの中の、自由領域と未知領域の境界を選んで自由に走らせて、
Rtabmap_ros で、Map を完成させられるか試してみます。

注) Stereo Camera だと、Rtabmap_ros で、床が自由領域として、 /map に出てこないのでこちらは、この方法ではできません。
あくまでも、Depth Camera の場合です。

最近のコンテンツはインデックスページで見られます。過去に書かれたものはアーカイブのページで見られます。

アイテム

  • robotcar-DSC03445.jpg
  • foxbot3_core_chassis-img007.jpg
  • foxbot3_core_chassis-img006.jpg
  • foxbot3_core_chassis-img005.jpg
  • foxbot3_core-eagle-schema.jpg
  • foxbot3_core-eagle-board.jpg
  • robocar-DSC03418.jpg
  • img004.jpg
  • img003.jpg
  • esp32-gysfdmaxb-server_2018.10.6.jpg

ウェブページ

サイトナビ