Propozycja rozwiązania systemu nawigacji i sterowania dla wielozadaniowej autonomicznej platformy transportowej (WAPT)

Propozycja rozwiązania systemu nawigacji i sterowania dla wielozadaniowej autonomicznej platformy transportowej (WAPT)
Fot. Adobe Stock. Data dodania: 20 września 2022

Postępującemu rozwojowi cywilizacyjnemu nieodzownie towarzyszy wzrost poziomu zagrożenia w otaczającej człowieka rzeczywistości. Może być ono spowodowane dużym natężeniem ruchu, przeludnieniem aglomeracji, działalnością terrorystyczną czy degradacją środowiska naturalnego. Czynniki te determinują coraz częstszą potrzebę wsparcia transportowo-technicznego służb utrzymania porządku - ratownictwa technicznego, medycznego, policji czy straży pożarnej.

1. Wstęp

Pomoc ta może wynikać z konieczności wykonania określonych zadań w środowiskach niebezpiecznych dla operatora. Zadania wsparcia polegać mogą na dostarczeniu urządzeń kontrolno-pomiarowych w rejony skażone chemicznie, dostarczeniu urządzeń przeznaczonych do rozbrajania ładunków niebezpiecznych lub ewakuacji ofiar w rejonach katastrof.

Jako rozwiązanie zagadnienia wsparcia zaproponowany został projekt Wielozadaniowej Autonomicznej Platformy Transportowej (WAPT). Platforma ta ma zapewnić możliwość transportu i przenoszenia sprzętu niezbędnego do wykonania wyznaczonych zadań oraz ewakuacji rannych. Projekt przewiduje możliwość zdalnego sterowania manualnego, jednak podstawowym wymaganiem narzuconym na platformę jest wysoki stopień jej autonomiczności.

Celem tego artykułu jest przegląd i analiza istniejących rozwiązań oraz propozycja kompleksowego systemu autonomicznej nawigacji i sterowania platformą.

W pierwszej części pracy dokonano przeglądu i analizy istniejących rozwiązań, technik i technologii. Druga część artykułu poświęcona jest propozycji i wstępnemu projektowi kompleksowego systemu nawigacji i sterowania, umożliwiającego platformie wykonanie stawianych przed nią zadań.

2. Przegląd i analiza istniejących rozwiązań

W tej części artykułu dokonano przeglądu i analizy istniejących metod i środków wykorzystywanych w zagadnieniach autonomicznej nawigacji i sterowania.

Pierwsza część rozdziału poświęcona jest przeglądowi dostępnych metod sensoryki aktywnej i pasywnej. W drugiej części rozdziału dokonany jest przegląd istniejących technik przetwarzania i analizy pobranych danych. Rozwiązania te pozwalają na spełnienie podstawowych wymagań autonomiczności, tj. na rozpoznanie przeszkód i klasyfikację obiektów oraz usystematyzowany zapis informacji o punktach charakterystycznych otoczenia.

Wyznacznikiem stopnia autonomiczności systemu jest jego zdolność do unikania przeszkód (obstacle avoidance), rozpoznawania obiektów (objects recognition) oraz zdolność

do budowania mapy środowiska (environment mapping) [1]. Unikanie przeszkód rozumiane jest jako umiejętność osiągnięcia celu poprzez wyselekcjonowanie przeszkód z otaczającego pojazd środowiska oraz zaplanowanie alternatywnej trasy ruchu pozwalającej na ich ominięcie. Algorytm rozpoznawania obiektów dokonuje klasyfikacji informacji o otaczającym pojazd środowisku i jest wymaganiem koniecznym do poprawnego funkcjonowania cechy mapowania środowiska, która to ma za zadanie lokalizowanie pojazdu w przestrzeni oraz budowę mapy otoczenia. Wszystkie trzy cechy stanowią integralną całość i dopiero ich pełne współdziałanie świadczy o wysokiej autonomiczności systemu. Aby wymagania te mogły zostać spełnione, samodzielny system musi zostać wyposażony w zestaw odpowiednich czujników mogących zebrać oraz przekazać trójwymiarową informację bazującą na odległości danego obiektu od czujnika - rozumianą, jako głębokość otaczającego system środowiska. Zastosowania robotyki narzucają dodatkowe wymagania takie jak: wysoka częstość wykonywania pomiarów, duży zasięg oraz wysoka rozdzielczość pomiarowa czujnika.

2.1. Czujniki

Bazowanie na informacji trójwymiarowej leży u podstaw możliwości automatyki i robotyki. Sondy czy czujniki świetlne, pomimo szerokiego zastosowania przemysłowego nie mogą zostać użyte w większości zagadnień dotyczących sensoryki autonomicznych układów mobilnych. Na takie czujniki narzucone zostają ograniczenia dotyczące prędkości i dokładności pomiarów, zasięgu, a w szczególności gabarytów, energooszczędności i kosztów. Przegląd metod sensoryki jest dokonany w wyżej już wspomnianym artykule M. Heberta [1]. Autor skupia się zarówno nad technologiami już wykorzystywanymi w przemyśle, jak i technikami znajdującymi się w stadium badań. Część artykułu poświęcona jest nieskanującym metodom pomiarów odległości. Ze względu na proponowane rozwiązanie, oparte w głównej mierze na czujnikach pasywnych przetwarzania i analizy obrazu, rozdział ten poświęcony jest głównie analizie istniejących rozwiązań w tej dziedzinie. Interesujące rozwiązanie rozpoznawania przeszkód zaprezentowane jest przez I. Ulrich oraz I. Nourbakhsh [2]. W swej pracy badają oni algorytm rozpoznawania obiektu bazujący na pojedynczej pasywnej kamerze kolorowej. Najciekawsze możliwości zastosowania prezentuje algorytm stereowizji pasywnej. Metoda ta oparta jest na wyznaczeniu obrazu niewspółmierności bazującego na różnicy pomiędzy dwoma pomiarami wykonanymi kamerami znajdującymi się w określonej od siebie odległości, a następnie, przy założeniu płaskiej powierzchni gruntu, obliczeniu i wyznaczeniu informacji głębokościowej środowiska. Metody stereowizji badane są przez B. Collins oraz A. Kornhauser [3]. Praca ta bazuje na projekcie robota mobilnego przygotowanego na potrzeby konkursu DARPA 2005. Praca wspólna Q.Yu, H. Araujo oraz H.Wang [4] poświęcona jest rozwojowi algorytmów stereowizji pozwalających na pominięcie założenia płaskości powierzchni, co pozwala na osiągnięcie znacznie dokładniejszych wyników w przypadku wykorzystania algorytmu do pracy na dużych odległościach. Rankin, Huertas oraz Matthies [5] w swojej pracy dokonują przeglądu algorytmów oraz oceny ich wydajności i niezawodności w zastosowaniu do takich przeszkód jak drzewa, wykopy, krzaki czy przeszkody wodne. Efektywność algorytmu stereowizji opiera się na poprawnym i dokładnym oszacowaniu płaszczyzny powierzchni, które bazuje w głównej mierze na cechach charakterystycznych otoczenia. Założenie jednak, że cechy takie istnieją w wielu przypadkach nie jest słuszne. Rozwiązanie tego problemu przy pomocy korelacji globalnej badane jest przez J. Zhao, J. Katupitiya oraz J. Ward [6].

2.2. Algorytmy i techniki nawigacji i sterowania autonomicznego

Ta część artykułu poświęcona jest przeglądowi istniejących rozwiązań systemów nawigacji, mapowania środowiska oraz technik sterowania wykorzystywanych w systemach niezależnych. Poprawne funkcjonowanie pojazdu autonomicznego opiera się w pełni na istnieniu poprawnej i dokładnej mapy środowiska. Wymaganie to stanowi fundamentalny problem nawigacji i sterowania autonomicznych urządzeń mobilnych. Problem ten wynika z następującego czynnika przyczynowo-skutkowego: mapa środowiska nie może zostać poprawnie zbudowana, ponieważ położenie pojazdu w przestrzeni nie jest jednoznaczne. Jednocześnie nie może zostać dokonana korekcja niedokładności pomiarów z powodu niedostępności mapy środowiska. Jako rozwiązanie obu problemów proponowane jest wykorzystanie algorytmów symultanicznego mapowania oraz lokalizacji (SLAM - simultaneous localization and mapping). Eduardo Nebot [7] przedstawia zasady leżące u podstaw metody SLAM oraz praktyczne jej zastosowanie. W swojej pracy opisuje założenia oraz modele matematyczne, sposób klasyfikacji i systematyzacji obiektów, metody naniesienia danych na mapę środowiska oraz przykładowe algorytmy lokalizacji. C. Wang, C. Thorpe [8] oraz D.Wolf i G.S. Sukhatme [9] zajmują się problemem budowy mapy i lokalizacji w środowisku dynamicznym. Podstawą technik SLAM jest wykorzystanie korelacji pomiarów z wcześniej zapisanymi znakami szczególnymi środowiska. Występowanie obiektów dynamicznych może prowadzić do błędnej identyfikacji cechy, a przez to niepoprawne zlokalizowanie pojazdu. W związku z założonymi scenariuszami wykorzystania oraz teoretycznymi środowiskami pracy platformy, istnieje konieczność rozwiązania problemu dotyczącego obsługi elementów dynamicznych środowiska. A. Howard [10] zajmuje się zagadnieniem jednoczesnego mapowania i lokalizowania przy pomocy grupy robotów oraz implementacji algorytmów filtracji Bayesa i filtrów cząstek. Autor przyjmuje założenie, że wiele współpracujących robotów jest w stanie eksplorować środowisko szybciej niż pojedynczy robot. Pomimo, że założeniem projektu jest wykorzystanie pojedynczego robota, praca A. Howarda jest interesująca ze względu na ciekawe propozycje dotyczące budowania mapy środowiska na podstawie informacji rozproszonej pochodzącej z różnych źródeł. J. Solà [11] w swojej pracy rozważa symultaniczne mapowanie i lokalizację oparte na algorytmie stereowizji wykorzystujące własność samokalibracji. Praca ta jest szczególnie istotna ze względu na wykorzystanie algorytmu stereowizji współpracującego z metodami SLAM.

Przygotowanie poprawnej mapy środowiska pozwala na efektywne planowanie trasy poruszania się pojazdu. Zagadnienia planowania trasy analizowane są przez P. Pettersona [12] oraz A. Ahmada [13]. Obydwie prace poświęcone są analizie wyznaczania trasy przejazdu na podstawie mapy probabilistycznej.

3. Kompleksowy system nawigacji i sterowania

Założenie wielozadaniowości narzucone na projekt platformy transportowej wymusza zastosowanie kompleksowego systemu nawigacji i sterowania, pozwalającego na osiągnięcie wysokiego stopnia autonomiczności. Przez kompleksowość rozumiane jest tutaj wykorzystanie układu czujników różnego rodzaju oraz zintegrowanego z nimi algorytmu przetwarzania i analizy danych pozwalającego na uzyskanie jak największej ilości relewantnych informacji środowiskowych. Na podstawie tych informacji algorytmy nawigacji i sterowania będą w stanie zbudować pełen obraz środowiska i zaproponować alternatywne trasy przejazdu. Proponowane jest wykorzystanie fuzji czujników, co pozwoli na uzyskanie pełnej synergii rozwiązań - wydobycie pozytywnych własności wykorzystanych technologii w celu rozwiązania problemów wynikających z ograniczeń prezentowanych przez te technologie.

Zgodnie z poprzednim rozdziałem, w celu zapewnienia możliwości zdobycia kompleksowej informacji, w platformie zostanie zastosowany system pomiarowy bazujący na fuzji czujników pasywnych i aktywnych.

Czujnik pasywny reprezentowany jest przez algorytm stereowizji pasywnej. W ramach projektu wykorzystane zostaną dwie matryce CCD (rozpatrywana jest również możliwość wykorzystania trzech czujników optycznych) pozwalające na pracę z minimalną nominalną rozdzielczością na poziomie 640x480 pikseli oraz częstotliwością 20fps (klatek na sekundę). Rozstaw kamer powinien zawierać się w przedziale 150 do 200mm, co pozwoli na stworzenie poprawnego obrazu niewspółmierności (disparity image) będącego podstawą poprawnego i dokładnego działania algorytmu stereowizji. Wykorzystane czujniki powinny posiadać wysoki współczynnik czułości i balansu bieli, co pozwoli na wydajną pracę w różnych warunkach oświetlenia.

Jako wsparcie dla algorytmu stereowizji zaproponowane zostało wykorzystanie dodatkowego czujnika aktywnego. Głównym założeniem jest fuzja danych - połączenie informacji o głębokości sceny wyznaczonej za pomocą stereowizji oraz rzeczywistej głębokość środowiska zmierzonej przy pomocy aktywnego czujnika odległościowego. Rodzaj czujnika zostanie dobrany odpowiednio do specyfiki pracy platformy ze względu na zasięg pracy. Proponowane są trzy rozwiązania: czujniki ultradźwiękowe przeznaczone do pracy na małych odległościach [1m - 5m], czujnik laserowy lub radar Dopplera przeznaczony do pracy na dużych zasięgach [do 250m].

Fuzja danych pozwoli na uniknięcie błędnych rozpoznań przeszkód - błędnego zaklasyfikowania cieni lub obiektów wiszących jako przeszkody znajdujące się na trasie ruchu. Informacja wizyjna pobrana za pomocą czujników CCD może zostać wykorzystana przez dodatkowo zaimplementowane klasyfikatory, pozwalające na rozpoznanie specyficznych elementów otaczającego środowiska. Wsparcie tego zadania może zostać zapewnione poprzez zaimplementowanie algorytmów sieci neuronowych. Właściwe przygotowanie klasyfikatorów pozwoli na rozpoznanie takich elementów jak znaki drogowe, osoby, potencjalne ładunki niebezpieczne (improvised explosive devices) czy specjalnie przygotowane znaki rozpoznawcze zawierające określony wzór graficzny (pattern).

Informacja odległościowa uzyskana z fuzji algorytmów przetwarzania obrazów oraz czujników aktywnych w pierwszej kolejności zostaje poddana wstępnej analizie przeprowadzonej przez algorytm rozpoznawania i klasyfikacji obiektów. Wykorzystanie takiego algorytmu pozwoli na wstępną filtrację pobranych informacji, a przez to ograniczenie ilości danych przesyłanych i przetwarzanych przez kolejne podzespoły systemu, co z kolei pozwoli na zwiększenie wydajności i niezawodności pracy. Ustalony zostanie format zapisu informacji - klas obiektów, pozwalający na sprecyzowany i usystematyzowany zapis elementów środowiska. Algorytm rozpoznawania i klasyfikacji obiektów zostanie również wyposażony w równoległą funkcjonalność (oddzielny wątek obliczeniowy) ustalania priorytetów przeszkód. Funkcjonalność ta pozwoli na podjęcie natychmiastowej decyzji o zatrzymaniu pojazdu lub zmianie toru ruchu w przypadku podejrzenia nieuniknionej kolizji.

Sklasyfikowane informacje zostaną zapisane w wewnętrznej bazie systemu. Baza ta stanowi centralny i integralny element zaproponowanego rozwiązania. Na podstawie zapisanych w niej danych algorytm symultanicznej lokalizacji i mapowania na bieżąco tworzy i uaktualnia mapę środowisko oraz dokonuje chwilowej lokalizacji położenia platformy.

W celu zapewnienia niezawodności systemu oraz podniesienia jego autonomiczności proponowane jest wykorzystanie dodatkowych czujników pomocniczych:
  • Czujnik GPS - wykorzystanie informacji o dokładnym położeniu platformy spowoduje zwiększenie dokładności budowanej mapy środowiska oraz lokalizacji jego elementów. Dodatkowo pozwoli to na ewentualne wykorzystanie wcześniej przygotowanych i zapisanych w systemie map satelitarnych oraz zdalne sterowanie manualne.


  • 2 osiowy czujnik nachylenia - integracja danych o nachyleniu pojazdu, jego prędkości i położeniu w przestrzeni pozwoli na wyliczenie i naniesienie na mapę informacji o ukształtowaniu powierzchni otaczającej pojazd przestrzeni. Informacja ta pozwoli również na zwiększenie dokładności obliczeń algorytmu stereowizji, a także wprowadzi dodatkowe zabezpieczenie systemu - ewentualność przewrócenia się pojazdu na pochyłości.
Rozpatrywane jest również użycie dodatkowej kamery termowizyjnej. Wykorzystanie uzyskanych z niej informacji oraz zaimplementowanie wspomagających algorytmów przetwarzania i analizy obrazów umożliwi platformie rozpoznawanie osób w warunkach niedostatecznej widoczności - mgieł, zadymienia lub podczas pracy w nocy.

Literatura:

[1] Hebert M.: Active and Passive Range Sensing for Robotics, Proceedings of the 2000 IEEE, International Conference on Robotics & Automation, San Francisco, 2000.
[2] Ulrich I., Nourbakhsh I.: Appearance-Based Obstacle Detection with Monocular Color Vision, Proceedings of the AAAI National Conference on Artificial Intelligence, 2000.
[3] Collins B., Kornhauser A.: Stereo Vision for Obstacle Detection in Autonomous Navigation, Operations Research and Financial Engineering, Princeton University, 2006.
[4] Yu Q., Araujo H., Wang H.: Stereo-Vision Based Real time Obstacle Detection for Urban Environments. Proceedings of ICAR 2003, The 11th International Conference on Advanced Robotics, Coimbra, 2003.
[5] Rankin A., Huertas A., Matthies L.: Evaluation of Stereo Vision Obstacle Detection Algorithm for Off-Road Autonomous Navigation, Jet Propulsion Laboratory, Pasadena.
[6] Zhao J., Katupitiya J., Ward J.: Global Correlation Based Ground Plane Estimation Using V-Disparity Image. IEEE International Conference on Robotics and Automation, Rome, 2007.
[7] Nebot E.: Simultaneous Localization and Mapping 2002 Summer School, Australian Centre for Field Robotics, The University of Sydney, 2006.
[8] Wang C., Thorpe C.: Simultaneous Localization and Mapping with Detection and Tracking of Moving Objects, Robotics Institute, Carnegie Mellon University, Pittsburgh.
[9] Wolf D., Sukhatme G.: Online Simultaneous Localization and Mapping in Dynamic Environments, Proceedings of the Intl. Conf. on Robotics and Automation ICRA, New Orleans, 2004.
[10] Howard A.: Multi-robot Simultaneous Localization and Mapping using Particle Filters, NASA Jet Propulsion Laboratory.
[11] Solà J.: Multi-camera VSLAM: from former information losses to self-calibration.
[12] Pettersson P., Doherty P.: Probabilistic Roadmap Based Path Planning for an Autonomous Unmanned Helicopter, Linkoping University, Department of Computer and Information Science.
[13] Ahmad A, Dhang N.: Probabilistic Roadmap Method and Real Time Gait Changing Technique Implementation for Travel Time Optimization on a Designed Six-legged Robot. Proceedings of the 39nd International Symposium on Robotics, 2008.

Zeszyty naukowe instytutu pojazdów 5(81)/2010
×

DALSZA CZĘŚĆ ARTYKUŁU JEST DOSTĘPNA DLA SUBSKRYBENTÓW STREFY PREMIUM PORTALU WNP.PL

lub poznaj nasze plany abonamentowe i wybierz odpowiedni dla siebie. Nie masz konta? Kliknij i załóż konto!

Zamów newsletter z najciekawszymi i najlepszymi tekstami portalu

Podaj poprawny adres e-mail
W związku z bezpłatną subskrypcją zgadzam się na otrzymywanie na podany adres email informacji handlowych.
Informujemy, że dane przekazane w związku z zamówieniem newslettera będą przetwarzane zgodnie z Polityką Prywatności PTWP Online Sp. z o.o.

Usługa zostanie uruchomiania po kliknięciu w link aktywacyjny przesłany na podany adres email.

W każdej chwili możesz zrezygnować z otrzymywania newslettera i innych informacji.
Musisz zaznaczyć wymaganą zgodę

KOMENTARZE (0)

Do artykułu: Propozycja rozwiązania systemu nawigacji i sterowania dla wielozadaniowej autonomicznej platformy transportowej (WAPT)

NEWSLETTER

Zamów newsletter z najciekawszymi i najlepszymi tekstami portalu.

Polityka prywatności portali Grupy PTWP

Logowanie

Dla subskrybentów naszych usług (Strefa Premium, newslettery) oraz uczestników konferencji ogranizowanych przez Grupę PTWP

Nie pamiętasz hasła?

Nie masz jeszcze konta? Kliknij i zarejestruj się teraz!