Візуальна навігація дозволила роботу знайти місце з фотографії

Американські інженери розробили алгоритм навігації для роботів, що дозволяє їм знаходити потрібне місце за фотографією і координатами. Він складається з двох контролерів: локального, що орієнтується поблизу за даними з камери, і глобального, що прокладає зразковий маршрут. Стаття опублікована на arXiv.org.


Для навігації в робототехніці найчастіше використовують ті чи інші підходи, засновані на точних картах навколишнього простору. При цьому інженери зазвичай концентруються на локальній навігації всередині будівель, тоді як глобальна навігація - це теж важливе завдання, що вимагає окремого підходу. Люди вирішують проблему переміщення з точки А в точку Б в місті, комбінуючи навігацію на обох масштабах і не будуючи високоточну 3D-карту навколишнього простору. Замість цього ми можемо запам'ятати ключові об'єкти на великій карті з навігатора і дізнатися їх при наближенні.


Друв Шах (Dhruv Shah) і Сергій Левін (Sergey Levine) з Каліфорнійського університету в Берклі розробили схожий метод навігації для роботів і назвали його ^ KiNG (Vision-Based Kilometer-Scale Navigation with Geographic Hints, ігр, Нав.

Метод передбачає використання двох контролерів: локального і глобального. Локальний працює з кадрами, які він в реальному часі отримує з камери на роботі. Завдання цієї частини навігаційної системи полягає в тому, щоб керувати безпосереднім рухом робота і, наприклад, не заїхати в яму або на камінь. Відповідно, локальний контролер розраховує реально досяжні маршрути на кілька метрів вперед і дає глобальному контролеру кілька найближчих точок-кандидатів на маршруті. Він же, у свою чергу, перевіряє, наскільки ці проміжні точки допомагають наблизитися до пункту призначення, і вибирає з них оптимальну. Крім відстані контролер враховує й інші фактори, які він отримує з карти або супутникового знімка. Наприклад, у місті він посилатиме робота в основному через тротуари.

Інженери навчили систему навігації на 42 годинах поїздок роботів: 30 з них вони взяли зі своєї попередньої роботи, а ще 12 записали самі, віддалено керуючи роботом на вулицях. Потім вони перевірили її роботу на колісному роботі Clearpath Jackal UGV. Під час роботи робот отримував зображення і приблизні координати потрібного місця, а також доступ до карт з Google Maps. В результаті робот зміг проїхати велику відстань і прийти до заданих цілей. В одному із заїздів розробники дали йому п'ять цілей - робот зміг знайти їх усі і сумарно проїхав 2,65 кілометра, тоді як у навчальній вибірці максимальна відстань заїздів становила 80 метрів.

Це не перша незвичайна система візуальної навігації для роботів. У 2019 році французькі інженери навчили робота орієнтуватися подібно мурахам, використовуючи підрахунок кроків, аналіз оптичного потоку і висоту Сонця.

COM_SPPAGEBUILDER_NO_ITEMS_FOUND