Xem mẫu

  1. Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021) Ứng dụng RTAB-Map xây dựng bản đồ 3D cho Robot đa hướng bốn bánh dựa trên hệ điều hành ROS Hà Thị Kim Duyên1, Trần Bá Hiến1, Lê Mạnh Long1, Ngô Mạnh Tiến2 1 Trường Đại học Công nghiệp Hà Nội Email: ha.duyen@haui.edu.vn, hienbn3333@gmail.com, lemanhlong@haui.edu.vn 2 Viện Vật lý, Viện Hàn lâm KH&CN Việt Nam Email: nmtien@iop.vast.ac.vn Abstract: Bài báo này trình bày về quá trình xây giả xây dựng và thực thi trên nền ROS. Để tăng độ dựng bản đồ địa hình 3D cho robot tự hành hoạt động chính xác, SLAM thường kết hợp các dữ liệu từ nhiều trong môi trường trong nhà dựa trên hệ điều hành lập cảm biến qua các phương pháp xác suất như Markov, trình cho robot (Robot Operating System - ROS). Phần Kalman, … [6], [7], [8]. Tuy nhiên việc sử dụng nhiều cứng là một robot Omni 4 bánh với nền tảng máy tính cảm biến sẽ làm tăng độ phức tạp, chi phí và thời gian nhúng hiệu suất cao Jetson-Tx2, camera 3D và một cảm xử lý của hệ thống. Đặc biệt là robot tự hành hiện nay biến Lidar để thu thập dữ liệu từ môi trường bên ngoài. không chỉ giới hạn trong việc di chuyển, mà nó còn Kết hợp với việc chạy mô phỏng robot trong môi trường được tích hợp các cơ cấu chấp hành, cánh tay máy trong nhà sử dụng Gazebo và thử nghiệm trên Rviz cho thấy sự tiềm năng, hiệu quả của hướng nghiên cứu sử robot…để thực hiện các nhiệm vụ cụ thể nào đó trong dụng hệ điều hành robot ROS trong việc lập bản đồ môi môi trường không gian hoạt động, do đó SLAM không trường cho robot tự hành. chỉ ý nghĩa trong việc xây dựng bản đồ 2D môi trường hoạt động phục vụ điều hướng cho robot, mà còn cần Keywords: Simultaneous Localization and Mapping, thiết có các bản đồ 3D (SLAM3D) nhằm phục vụ các SLAM2D, SLAM3D, RTAP_Map, Robot Operating System bài toán tương tác khác của robot trong môi trường (ROS). hoạt động đó. Hiện nay với sự phát triển của lĩnh vực thị giác máy tính nên các hệ thống SLAM thường sử dụng I. GIỚI THIỆU camera để thu thập dữ liệu từ môi trường bên ngoài của những tác nhân gần xung quanh và kết hợp với Ngày nay, robot di động được sử dụng rộng rãi Lidar để xác định vị trí của các tác nhân xa. Cùng với trong các hoạt động liên quan đến hoạt động tự trị, tự xu hướng sử dụng hệ điều hành robot – ROS (Robot động di chuyển trong các môi trường không cố định và Operating System) thì phương pháp SLAM cũng được không cần sự giám sát của con người. Hoạt động tự trị phát triển hiệu quả. Các phương pháp SLAM sử dụng của robot trong môi trường chưa được biết đến đòi hỏi cảm biến trên nền tảng ROS phổ biến hiện nay như robot phải tự nhận biết được môi trường xung quanh, Visual SLAM. Một số phương pháp của Visual SLAM xây dựng bản đồ, định vị và lập kế hoạch đường đi và như maplab, ORB-SLAM2, DVO-SLAM, MCPTAM, tránh các vật cản tĩnh và động trong quá trình di RTAB-Map, RGBDSLAMv2… [9], [10], [11]. Trong chuyển [1] [2]. các phương pháp của Visual SLAM thì RTAB-Map Xây dựng bản đồ và định vị đồng thời hay còn gọi tương đối toàn diện khi có thể cung cấp bản đồ dạng là SLAM (Simultaneous Localization and Mapping) là lưới 2D (Occupancy Grid) như cách sử dụng cảm biến quá trình tính toán, xây dựng hoặc cập nhật bản đồ của thông thường hay bản đồ 3D (Octomap). RTAB-Map một môi trường không xác định đồng thời theo dõi vị được phân phối dưới dạng một ROS package có khả trí của các tác nhân bên trong bản đồ đó. Với những năng xử lý thời gian thực, tối ưu hóa việc định vị và cải tiến lớn về tốc độ xử lý của máy tính và sự sẵn có tạo bản đồ thực tế [12]. của các cảm biến như máy ảnh và laser, SLAM hiện Bài báo nghiên cứu, xây dựng một robot có khả được sử dụng cho các ứng dụng thực tế trong một số năng xây dựng bản đồ và định vị đồng thời SLAM 3D lĩnh vực ngày càng tăng. Phương pháp này thu thập dữ sử dụng phương pháp RTAB-Map trên nền tảng ROS. liệu từ các cảm biến để tái tạo môi trường hoạt động Kích thước robot nhỏ phù hợp với việc hoạt động thông qua việc đưa thông tin môi trường vào trong một trong môi trường trong nhà. Robot có khả năng di bản đồ 2D hoặc 3D. Cảm biến được sử dụng trong chuyển, thu thập dữ liệu, xây dựng bản đồ 3D và định SLAM được chia thành hai loại: cảm biến ngoại vi vị vị trí trên bản đồ. Kết quả SLAM ngoài việc sử (thu nhận dữ liệu từ môi trường bên ngoài) và cảm dụng để lập kế hoạch đường đi cho robot trong hệ biến nội vi (xác định sự thay đổi vị trí, hướng, gia thống dẫn đường tự động của robot tự hành, mà còn tốc,…). Đã có nhiều công trình thực hiện SLAM 2D là cần thiết có các bản đồ 3D (SLAM3D) nhằm phục vụ phương pháp tạo ra bản đồ 2D và phát hiện các các bài toán tương tác khác của robot trong môi trường chướng ngại vật xung quanh trong môi trường không hoạt động đó. xác định trong [3],[4] và [5] và cũng đã được các tác ISBN 978-604-80-5958-3 386
  2. Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021) II. MÔ HÌNH ROBOT TỰ HÀNH OMNI BỐN Trong đó vx , v y và w là vận tốc của robot và vận BÁNH VÀ HỆ ĐIỀU HÀNH ROS tốc tín hiệu điều khiển được tạo ra từ tính toán điều A. Mô hình robot tự hành omni bốn bánh khiển. Sau khi tín hiệu được chuyển đổi, vị trí của Mô hình động học cho robot Omni bốn bánh được robot được điều khiển trực tiếp bởi các tín hiệu này xây dựng dựa trên mô hình với bánh xe Omni được bố thông qua bốn bánh của robot. trí đặt cách nhau một góc 900 như trên hình 2. B. Cấu trúc phần cứng thực tế của omni robot bốn T bánh q = x y   là véc tơ tọa độ của robot trong hệ tọa Mô hình robot được xây dựng với 3 thành phần độ toàn cục Oxy , trong đó x và y lần lượt là toạ độ chính: Phần xử lý trung tâm, phần cảm biến, và phần của robot theo phương Ox và Oy ,  là góc quay của điều khiển cơ cấu chấp hành. Về cấu trúc bộ phận di robot so với chiều dương của trục Ox . chuyển là Omni 4 bánh đa hướng giúp việc di chuyển T linh hoạt và dễ dàng hơn. Máy tính nhúng đóng Jetson v  vx vy   là véc tơ vận tốc của robot trong hệ TX2 có vai trò là bộ xử lý trung tâm được cài đặt hệ trục tọa độ động gắn vào tâm robot bao gồm vận tốc điều hành ROS cùng với các node tính toán thuật toán tịnh tiến và vận tốc góc của robot. SLAM. Sau khi tính toán xong, Jetson TX2 gửi lệnh điều khiển cho bộ phận điều khiển cơ cấu chấp hành là mạch STM32. RPLidar quét laser 360o giúp Robot xây dựng bản đồ và nhận diện vật cản tầm cao với khoảng cách xa. Camera 3D sử dụng Deep Camera giúp nhận diện vật cản tầm trung và tầm thấp ở phía trước Robot. Hình 1. Robot Omni đa hướng 4 bánh Hình 3. Mô hình thực tế và cấu trúc phần cứng của Omni robot III. BẢN ĐỒ HÓA MÔI TRƯỜNG VÀ ĐỊNH VỊ Hình 2. Hệ trục tọa độ của robot tự hành bốn bánh đa hướng. ĐỒNG THỜI SLAM CHO ROBOT Để đơn giản trong việc thiết kế bộ điều khiển cho Trong lĩnh vực robotic, vấn đề định vị đồng thời robot, mối quan hệ giữa vận tốc trong trục của robot xây dựng bản đồ SLAM là một trong những vấn đề và vận tốc trong trục của môi trường được mô tả bằng quan trọng nhất và đóng vai trò then chốt trong điều mô hình động học của robot: hướng robot, vì vậy đã thu hút được sự quan tâm lớn  cos   sin  0  của đông đảo các nhà khoa học. Vấn đề SLAM được   mô tả tổng quát trong quá trình khi robot di chuyển để q   sin  cos  0  v. (1) lập bản đồ những nơi con người không thể hoặc không  0 0 1 muốn tiếp cận, đồng thời robot tự xác định được vị trí  Từ (1) chúng ta sẽ có được phương trình để lập của nó so với những đối tượng xung quanh. Kỹ thuật trình cho Robot trong ROS: xử lý SLAM sẽ cung cấp thông tin bản đồ về môi trường cũng như đồng thời ước tính tư thế riêng (vị trí  x  vx cos   v y sin   và hướng) của robot dựa vào các tín hiệu thu được từ  y  vx sin   v y cos  (2) các cảm biến tầm nhìn bao gồm Rplidar và 3D camera.    w ISBN 978-604-80-5958-3 387
  3. Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021) A. Định nghĩa SLAM trạng thái của robot tại thời điểm k khi biết giá trị quan sát được và tín hiệu đầu vào điều khiển cùng với trạng thái ban đầu của robot. Việc tính toán giá trị phân phối xác xuất này yêu cầu mô hình chuyển trạng thái và mô hình quan sát để mô tả việc tác động của tín hiệu điều khiển và các giá trị quan sát được. Mô hình quan sát mô tả xác suất thực hiện được giá trị quan sát zk khi vị trí robot và vị trí điểm mốc trên bản đồ đã được xác định, và nó có dạng P( zk | xk , m) (4) Và giải thiết rằng khi vị trí của robot và bản đồ được xác định thì các giá trị quan sát được là độc lập có điều kiện. Mô hình chuyển động của robot được mô Hình 4. Mô tả quá trình SLAM tả bởi phân bố xác suất chuyển trạng thái sau: Xét hệ robot tự hành di chuyển vào một môi P( xk | xk 1 , uk ) (5) trường không xác định và các giá trị khoảng cách từ Phân bố này được giả sử là thoả mãn tiêu chuẩn robot đến các vật cản tĩnh trong môi trường được đo Markov, ở đó trạng thái xk chỉ phụ thuộc vào trạng bằng cảm biến Lidar như hình 4. Tại thời điểm k các thái ngay trước nó xk 1 và tín hiệu điều khiển uk , và giá trị sau đây được định nghĩa: xk : vector trạng thái miêu tả hướng và vị trí của xk độc lập với các giá trị quan sát được và bản đồ m . robot. Thuật toán SLAM được thực thi với hai bước tuần uk : vector điều khiển lái robot từ thời điểm k  1 tự lặp lại là bước dự đoán (prediction) còn được gọi là cập nhật thseo thời gian và bước chỉnh sửa (correction) đến trạng thái xk tại thời điểm k còn được gọi là cập nhật theo đo lường. mi : vector miêu tả vị trí của điểm mốc thứ i được Bước dự đoán được mô tả bởi phân phối: giả định là không thay đổi. P( xk , m | Z 0:k 1 , U 0:k ) (6) zi , k : phép quan sát được lấy từ robot từ vị trí thứ i Do trạng thái của robot xk và bản đồ m là độc tại thời điểm thứ k . Khi có nhiều quan sát mốc tại một lập, ta có: thời điểm hoặc khi mốc cụ thể không liên quan đến P ( xk , m | Z 0:k 1 , U 0:k , x0 )  P ( xk | Z 0:k 1 ,U 0:k ) P( m | Z 0:k 1 , U 0:k ) (7) khoảng đang xét, phép quan sát sẽ được viết đơn giản   P( xk | Z 0:k 1 , U 0:k , xk 1 ) P( xk 1 | Z 0:k 1 , U 0:k ) P (m | Z 0:k 1 , U 0:k )dxk 1 là zk . xk 1 và m độc lập nên (7) trở thành Thêm vào đó, ta sẽ định nghĩa thêm:  P( x k | Z 0:k 1 , U 0:k , xk 1 ) P ( xk 1 , m | Z 0:k 1 , U 0:k ) dxk 1 (8) X 0:k   x0 , x1 ,..., xk    X 0:k 1 , xk  : Tập chứa các xk có tính chất Markov nên (8) được thu gọn thành vị trí của robot từ thời điểm ban đầu đến thời điểm k . U 0:k  u0 , u1 ,..., uk   U 0:k 1 , uk  : Tập chứa các  P( x k | xk 1 , uk ) P( xk 1 , m | Z 0:k 1 , U 0:k 1 ) dxk 1 (9) giá trị đầu vào điều khiển từ thời điểm ban đầu đến Sau khi tính toán bước dự đoán, bước chỉnh sửa thời điểm k . được thực hiện theo phân phối sau m  m1 , m2 ,..., mn  : Tập các điểm mốc thể hiện vị P( xk , m | Z 0:k , U 0:k ) P ( zk | xk , m) P( xk , m | Z 0:k 1 , U 0:k ) (10) trí vật cản quét được  Z 0:k   z0 , z1 ,..., zk   Z 0:k 1 , zk  : Tập các điểm P( zk | Z 0:k 1 , U 0:k ) mốc quan sát được từ thời điểm ban đầu đến thời điểm Biểu thức (8) và (9) mô tả quá trình tính toán đệ quy cho việc tính toán xác suất hậu nghiệm (10) cho k. trạng thái robot xk và bản đồ m tại thời điểm k dựa Vấn đề SLAM từ đó được định nghĩa là việc xác định được vị trí của các vật cản tĩnh trong môi trường vào tập quan sát Z 0:k và tập tín hiệu điều khiển đầu m để bản đồ hoá môi trường và đồng thời ước tính vị vào U 0:k . trí của robot trong bản đồ đó xk . IV. ỨNG DỤNG RTAB-MAP XÂY DỰNG BẢN B. Kỹ thuật SLAM trong xác suất robotic ĐỒ 3D Ở dạng xác suất, vấn đề SLAM được biểu diễn dưới dạng phân phối xác suất sau RTAB-Map là một phương pháp SLAM dựa trên đồ P( xk , m | Z 0:k , U 0:k ) (3) thị RGB-D sử dụng bộ đóng vòng lặp. Bộ đóng vòng Phân phối xác suất này mô tả phân phối hậu lặp sử dụng phương pháp tiếp cận từ nhiều điểm để xác nghiệm liên kết giữa vị trí điểm mốc trong bản đồ với định khả năng một hình ảnh mới đến từ một vị trí trước ISBN 978-604-80-5958-3 388
  4. Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021) đó hay vị trí mới. RTAB-Map phát hiện lỗi sai bằng chia thành bộ nhớ làm việc (WM) và bộ nhớ dài hạn cách sử dụng phương pháp GoodFeaturesToTrack (LTM), khi một nút chuyển sang LTM, nó không còn (GFTT) theo mặc định, giúp giảm bớt việc điều chỉnh khả dụng cho các modul bên trong WM. Khi thời gian tham số, cho phép các tính năng được phát hiện đồng cập nhật RtabMap vượt quá ngưỡng thời gian cho phép, nhất trên các kích thước hình ảnh và cường độ ánh sáng một số nút trong WM sẽ chuyển sang LTM để giới hạn khác nhau. Ngoài ra, RTAB-Map hỗ trợ tất cả các loại kích thước của WM và giảm thời gian cập nhật. STM tính năng có sẵn trong OpenCV, chẳng hạn như SIFT, dùng để xác định xem nút nào cần chuyển sang LTM SURF, ORB, FAST hoặc BRIEF. Một trình tối ưu hóa [11], [13], [14]. đồ thị giảm thiểu các lỗi trong bản đồ khi các ràng buộc mới được thêm vào và một phương pháp quản lý bộ nhớ hiệu quả được sử dụng để thực hiện các ràng buộc thời gian thực trong các môi trường lớn. Để thực hiện SLAM 3D, chúng tôi sử dụng gói Rtab-Map cho omni robot. Bằng việc thu thập dữ liệu từ RPLidar, Astra camera và chuyển đổi với cấu trúc như hình 5. Hình 6. Sơ đồ tín hiệu xây dựng và định vị đồng thời Gói RTAB-Map ước tính vị trí của Robot và xây dựng bản đồ dựa trên dữ liệu thu được và các phép đo hình học của nó. - Lidar: node này thực hiện chạy cảm biến RPLidar và gửi thông tin “scan” cần thiết đến node rtabmap. - Camera 3D: node này thực hiện chạy camera 3D và gửi thông tin “image(rgb)”, “image(depth)”, “CameraInfo” đến node rgbd_sync. Hình 5. Sơ đồ khối rtabmap-ros - rgbd_sync: node này đảm bảo rằng các chủ đề Cấu trúc của rtabmap_ros là một biểu đồ với các nút hình ảnh được đồng bộ hóa chính xác với nhau trước liên kết với nhau. Sau khi đồng bộ hóa các dữ liệu đầu khi đi vào node rtabmap. vào, modul bộ nhớ ngắn hạn (STM) tạo một nút để ghi - rtabmap: node này sẽ đồng bộ hóa các chủ đề đến nhớ tư thế Odometry, dữ liệu cảm biến và các thông tin từ tín hiệu LaserScan và thông tin từ Camera 3D. bổ xung cho các modul tiếp theo. - nav_msgs/Odometry: xuất bản thông tin về vị trí, Các đầu vào yêu cầu là: TF để xác định vị trí của vận tốc của robot trong không gian tự do đến node các cảm biến liên quan đến chân đế robot, Odometry, rtabmap. hình ảnh từ camera và đầu quét laser từ Lidar. Tất cả - rviz, rtabmaprviz: thực hiệm giám sát quá trình các thông báo từ đầu vào này sau đó được đồng bộ hóa hoạt động của robot và theo dõi quá trình tạo map. và chuyển đến thuật toán đồ thị (SLAM). Kết quả đầu Robot sử dụng thông tin “image(rgb)”, ra là dữ liệu bản đồ chứa trong Map Data được bổ xung “image(depth)”, “CameraInfo” từ camera 3D qua quá mới nhất với các dữ liệu cảm biến nén và biểu đồ, Map trình đồng bộ hóa bởi node rgdb_image để thực hiện Graph không có bất kỳ dữ liệu nào, hiệu chỉnh quá trình tạo map 3D. Camera còn được sử dụng để Odometry được xuất bản trên TF, một tùy chọn lưới phát hiện đóng vòng lặp dựa trên hình ảnh RGBD, chiếm dụng 3D (OctoMap), Point Cloud và một lưới nhưng nó không cải thiện hệ thống quá nhiều. Thông chiếm dụng 2D (2D Occupancy Grid). tin “scan” từ cảm biến RPLidar được sử dụng để cải Phương pháp RtabMap chạy trên module quản lý đồ thiện kết quả của quá trình SLAM, giúp tinh chỉnh quá thị. Nó sử dụng để giới hạn kích thước của biểu đồ để trình đo mùi (Odometry) làm cho kết quả được tốt hơn có thể đạt được SLAM trực tuyến lâu dài trong môi trên bản đồ. trường lớn. Nếu không có bộ quản lý bộ nhớ, khi bản đồ phát triển, thời gian xử lý của các module như đóng V. KẾT QUẢ MÔ PHỎNG vòng lặp, phát hiện vùng lân cận, tối ưu hóa đồ thị và Phần mềm mô phỏng Gazebo được tích hợp để có lắp ráp bản đồ toàn cầu cuối cùng có thể vượt qua thời thể sử dụng trong ROS. Môi trường trong Gazebo gian ràng buộc với thời gian thực, tức là thời gian xử lý được tối ưu sao cho các điều kiện vật lý giống với môi trở nên quá lớn. Về cơ bản, bộ nhớ của RtabMap được trường thực tế nhất, nhóm tác giả đã xây dựng môi ISBN 978-604-80-5958-3 389
  5. Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021) trường trong nhà tại hai môi trường trong nhà khác nhau nhằm đa dạng các môi trường hoạt động trong nhà với những vật cản khác nhau. Mô hình robot tự hành Omni như hình 7, với các tham số mô phỏng và thực nghiệm giống nhau:  Tốc độ lớn nhất theo phương x và y: 1.5 m/s  Tốc độ góc lớn nhất: 0.5 rad/s  Bán kính robot: 0.25 m  Bán kính bánh xe: 0.07 m Hình 9. Quá trình SLAM 3D của môi trường 2 Hình 7. Mô hình 3D robot Omni và môi trường thực nghiệm tại hai môi trường trong nhà Tham số cho cảm biến lidar: Phạm vi quét lớn nhất: 0.2 ÷10 m, độ phân giải: 1o , góc quét: 360o  Camera astra có thông số như sau:  Độ phân giải hình ảnh RGB: 640x480 @30fps  Độ phân giải hình ảnh chiều sâu: 640x480 @30fps  Kích thước: 165mm x 30mm x 40mm  Phạm vi: 0.6m - 8m Việc chạy mô phỏng thử nghiệm SLAM được thực hiện trên Rviz, là công cụ trực quan của ROS. Mục đích chính là hiển thị các thông báo thu được ở chế độ Hình 10. Kết quả SLAM 3D của môi trường 1 3D, cho phép người dùng xác minh trực quan dữ liệu. Thông qua phần mềm Rviz, người dùng có thể giám sát được môi trường xung quanh của Robot theo thời gian. Hình 8 là là kết quả thu được khi bắt khởi chạy kỹ thuật SLAM trong hệ thống nhận biết robot. Các đám mây điểm ảnh được quét từ camera được dựng lên với độ cao và màu sắc tương đồng với các vật thể được tạo ra trong môi trường trong nhà. Hình 11. Kết quả SLAM 3D của môi trường 2 Môi trường thực nghiệm gồm các vách tường ngăn và các vật cản được sắp xếp ở các vị trí ngẫu nhiêu trên bản đồ. Robot di chuyển xung quanh phòng, sử dụng camera để thu lại hình ảnh trong quá trình di chuyển, từ đó tái tạo lại bản đồ của môi trường xung Hình 8. Quá trình SLAM 3D với môi trường 1 quanh. Bản đồ 3D ở hình 8, 9 là các pointcloud hay còn gọi là đám mây điểm được thu thập trong quá ISBN 978-604-80-5958-3 390
  6. Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021) trình robot chuyển động. Dữ liệu đám mây này biểu "Mapping and Navigation for Indoor Robots under ROS: thị hình ảnh của một vật dưới dạng nhiều điểm trong An Experimental Analysis," Creative Commons CC BY không gian tọa độ 3 chiều. Hình 10, 11 biểu diễn chi license, 2019. tiết kết quả xây dựng toàn bộ bản đồ. Do kích thước [5] Q. Lin et al., "Indoor mapping using gmapping on embedded system," in 2017 IEEE International của robot nhỏ, nên thị trường hoạt động của camera Conference on Robotics and Biomimetics (ROBIO), còn thấp nhưng vẫn thu được ảnh ở khoảng cách xa. 2017, pp. 2444-2449: IEEE. Kết quả cho thấy robot có khả năng tái tạo lại bản đồ [6] D.Schleicher, L.Bergasa, M.Ocan, R.Barea and E.Lopez, một cách hiệu quả. “Real-time hierarchical stereo Visual SLAM in large- Dựa vào kết quả mô phỏng ta thấy có thể sử dụng scale environment”, 2010. camera 3D cho quá trình SLAM và điều hướng. Trong [7] S. Das, “Simultaneous Localization and Mapping khi Lidar có thể phát hiện các vật cản ở xa, gần với (SLAM) using RTAB-Map”, 2018. cùng độ cao đặt Lidar trên robot thì camera 3D có thể [8] Dieter Fox, Wolfram Burgard, and Sebastian Thrun, “Markov Localization for Mobile Robots in Dynamic phát hiện các vật ở khoảng cách gần mà tia Lidar Environments”, 1999. không thể phát hiện được. Ngoài ra việc sử dụng [9] E.A.Wan and R.v.d Merwe, “The Unscented Kalman camera 3D còn giúp giải quyết những hạn chế khi điều Filter for Nonlinear Approaches”, 2006. hướng tự động trong môi trường có các kết cấu khó [10] Giorgio Grisetti, Rainer Kummerle, Cyrill khăn như hành lang, bậc thang… Stachniss, Wolfram Burgard, "A Tutorial on Graph-Base SLAM," IEEE Intelligent Transportation Systems VI. KẾT LUẬN Magazine, 2010. [11] Nicolas Ragot, Redouane Khemmar, Adithya Bài báo này trình bày về lập bản đồ hóa (SLAM Pokala, Romain Rossi, Benchmark of Visual SLAM 3D) cho robot tự hành hoạt động trong các môi trường Algorithm: ORB-SLAM2 vs RTAB-Map, 2019. trong nhà dựa trên hệ điều hành lập trình cho robot [12] Mathieu Labbé, Francois Michaud, RTAB-Map as ROS. Các kết quả cho thấy robot có khả năng thu thập an Open-Source Lidar and Visual SLAM Library for dữ liệu từ môi trường xung quanh, xây dựng bản đồ Large-Scale and Long-Term Online Operation, Canada. 3D và định vị vị trí của robot trên bản đồ của môi [13] Thrilochan Sharma Pendyala, Prithvi Sekhar trường trong nhà. Các kết quả này là nền tảng cho các Pagala, Hamsa Datta Perur, "Comparative analysis of bước điều hướng, lập quỹ đạo chuyển động cho robot ROS based 2D and 3D SLAM algorithms for phục vụ các bài toán cụ thể như robot tự hành hoạt Autonomous Ground Vehicles," June 2020. động trong các nhà máy, ứng dụng trong công việc [14] Mathieu Labb´e, Fran¸cois Michaud, "Long-Term Online Multi-Session Graph-Based SPLAM with vận chuyển hàng hóa trong nhà, Logictis.. . Đặc biệt Memory Management". bên cạnh đó, bản đồ 3D có ý nghĩa với các robot tự hành có tích hợp các cơ cấu chấp hành, cánh tay máy robot…vv ngoài việc di chuyển tự trị còn có thể thực hiện các nhiệm vụ tương tác cụ thể trong môi trường không gian hoạt động. LỜI CẢM ƠN Bài báo này được hoàn thành với sự tài trợ của Đề tài cấp Quốc gia thuộc chương trình phát triển Vật lý 2021-2025: "Nghiên cứu phát triển robot tự hành thông minh sử dụng các công nghệ sensor khác nhau và nền tảng IoT, AI, định hướng ứng dụng trong quan trắc môi trường phóng xạ", 2022-2024. TÀI LIỆU THAM KHẢO [1] P. RcKerrow, “Introduction to Robotics”, Addison- Wesley, 1991. [2] R. Siegwart, I. R. Nourbakhsh, and D. Scaramuzza, “Introduction to Autonomous Mobile Robots”, The MIT Press, February 2011. [3] S. Park and G. Lee, "Mapping and localization of cooperative robots by ROS and SLAM in unknown working area," in 2017 56th Annual Conference of the Society of Instrument and Control Engineers of Japan (SICE), 2017. [4] B. M. da Silva, R. S. Xavier, and L. M. Gonçalves, ISBN 978-604-80-5958-3 391
nguon tai.lieu . vn