Методы и алгоритмы тесносвязанной системы навигации, интегрирующей показания инерциальной, визуальной и спутниковой систем тема диссертации и автореферата по ВАК РФ 00.00.00, кандидат наук Шэнь Синь

  • Шэнь Синь
  • кандидат науккандидат наук
  • 2025, ФГБОУ ВО «Московский государственный технический университет имени Н.Э. Баумана (национальный исследовательский университет)»
  • Специальность ВАК РФ00.00.00
  • Количество страниц 179
Шэнь Синь. Методы и алгоритмы тесносвязанной системы навигации, интегрирующей показания инерциальной, визуальной и спутниковой систем: дис. кандидат наук: 00.00.00 - Другие cпециальности. ФГБОУ ВО «Московский государственный технический университет имени Н.Э. Баумана (национальный исследовательский университет)». 2025. 179 с.

Оглавление диссертации кандидат наук Шэнь Синь

СПИСОК СОКРАЩЕНИЙ

ВВЕДЕНИЕ

Глава 1. Аналитическая и теоретическая часть

1.1. Обзор современных алгоритмов мобильных объектов и их навигационные системы

1.2. Обзор современных методов инерциально-спутниковой навигации

1.3. Обзор современных методов инерциально-визуальной навигации

1.4. Теория оценки состояния

1.5. Постановка задачи диссертационного исследования

Выводы к главе

Глава 2. Задача глобальной навигации мобильных объектов в городе с помощью робастного и адаптивного ФК

2.1. Инерциальная и спутниковая навигационная система

2.2. Тесносвязанная интегрированная система определения координат и скоростей БИНС/ГНСС

2.3. Структура гибкого режима переключение интегрированной навигационной системы

2.4. Применение представленного адаптивного и робастного фильтра

Калмана в интегрированной навигационной системе

Выводы к главе

Глава 3. Задача локальной локализации и ориентирования мобильных объектов в помещении

3.1. Использование линейных признаков для визуальной навигационной системы

3.2. Использование глубокого обучения и сверточных нейронных сетей

для визуальной системы в динамических средах

Стр.

Выводы к главе

Глава 4. Экспериментальные исследования разработанных методов

4.1. Экспериментальное исследование интегрированной навигационной системы ГНСС/ИНС

4.2. Экспериментальное исследование предложенной визуальной навигационной системы LSD-ORB-SLAM

4.3. Тест эффективности новой нейронной сети

4.4. Экспериментальное исследование визуального SLAM

Выводы к главе

Общие выводы и заключение

Список использованной литературы

СПИСОК СОКРАЩЕНИЙ

ИНС Инерциальная навигационная система

ИИМ Инерциальный измерительный модуль

ГНСС Глобальная навигационная спутниковая система

ВО Визуальный одометр

ВИНС Визуально инерциальная навигационная система

ВНС Инерциальная навигационная система

СС Слабосвязанная

ТС Тесносвязанная

АО Алгоритм оценивания

САУ Система автоматического управления

ФК Фильтр Калмана

РФК Расширенный Фильтр Калмана

МЭМС Микроэлектромеханические системы

СКО Среднее квадратическое отклонение

ИИ Искусственный интеллект

НС Нейронная сеть

IMU Inertial Measurement Unit

CNN Convolutional Neural Networks

EKF Extended Kalman Filter

UKF Unscented Kalman Filter

CKF Cubature Kalman Filter

BA Bundle Adjustment

Введение диссертации (часть автореферата) на тему «Методы и алгоритмы тесносвязанной системы навигации, интегрирующей показания инерциальной, визуальной и спутниковой систем»

ВВЕДЕНИЕ

Актуальной задачей является повышения точности и улучшения надежности определения навигационных параметров в различных ситуациях в городской среде и в помещении для подвижных объектов.

Беспилотные автомобили (также известные как автономные автомобили и беспилотные автомобили) изучались и разрабатывались многими университетами, исследовательскими центрами, автомобильными компаниями и компаниями других отраслей по всему миру с середины 1980-х годов. Полноценный беспилотный автомобиль должен состоять из трех основных модулей, а именно подсистем восприятия, позиционирования и навигации, подсистем принятия решений и планирования пути, подсистем управления и исполнения. Наша исследовательская работа сосредоточена на подсистемах позиционирования и навигации беспилотных автомобилей.

Подсистема восприятия отвечает за анализ состояния автомобиля и формирование внутреннего представления об окружающем пространстве для системы автономного управления. Это достигается за счет обработки данных, поступающих от различных бортовых сенсоров, включая ЛИДАР (оптический дальномер), РАДАР (радиолокационная система), камеры, глобальную навигационную спутниковую систему (ГНСС), инерциальный измерительный блок (1Ми), одометр и другие устройства. В дополнение к этому используются предварительные данные о характеристиках сенсоров, структуре дорожной сети, правилах дорожного движения, а также динамических свойствах транспортного средства.

Подсистема локализации и навигации отвечают за оценивание состояний и параметров беспилотного автомобиля (положения, скорости и ориентации) относительно карты или дороги (например, представленной бордюрами или дорожными знаками). ГНСС играют очень важную роль в этом части. Однако, по

большому счету, они не так успешно применимы к городским беспилотным автомобилям, потому что сигналы от спутников не могут быть гарантирован в труднодоступных местах, например, под деревьями, в городских каньонах (дорогах, окруженных большими зданиями) или в туннелях.

Интеграция нескольких датчиков и объединение разнородной информации из нескольких источников являются важными направлениями развития будущих навигационных технологий, а также эффективным способом фундаментального устранения ограничений и уязвимостей единой навигационной системы. Для достижения постоянной доступности, точной и надежной навигации, позиционирование и синхронизация, необходимо срочно решить ключевую технологию точного позиционирования и определения ориентации с помощью мультисенсорного синтеза.

В общей ситуации применение фильтра Калмана (ФК) не позволяет достичь оптимальной оценки состояния инерциальной навигационной системы (ИНС), так как это возможно лишь при выполнении условий линейности моделей процесса и наблюдений. Одним из ключевых ограничений ФК является необходимость наличия точной вероятностной модели шумов для каждого инерциального датчика, что особенно затруднительно при интеграции ИНС с ГНСС. Хотя для систем навигационного и высококачественного тактического классов удается эффективно учитывать стохастические ошибки с использованием ФК, интеграция с низкокачественными ИНС, такими как МЭМС, сталкивается с серьезными проблемами. Эти датчики характеризуются сложными или трудно предсказуемыми погрешностями, которые не могут быть адекватно учтены стандартным подходом ФК.

Существенной проблемой для интегрированных навигационных систем остается снижение точности оценки навигационных параметров в условиях отсутствия или деградации сигнала ГНСС. Разработка методов, способных компенсировать ухудшение качества данных в таких ситуациях, является одной

из ключевых задач для повышения надежности систем навигации. В этой связи интерес представляют подходы, включающие использование нелинейных фильтров, адаптивных алгоритмов или методов машинного обучения для улучшения обработки измерений от низкокачественных инерциальных датчиков.

Цель диссертационной работы - разработка и исследование методов и алгоритмов тесносвязанной системы навигации, интегрирующей показания инерциальной, визуальной и спутниковой систем.

Для достижения поставленных целей требуется решить следующие задачи:

1. Провести анализ существующих схем применения методов фильтрации и оптимальности в интегрированных навигационных системах и исследовать особенности их реализации;

2. Разработать математическую модель измерений навигационных систем;

3. Разработать методику интеграции БИНС/ГНСС на основе тесносвязанной схемы комплексирования с использованием разновидностей ФК -расширенного (РФК), ансцентного (АФК), кубатурного (КФК) и др.;

4. Разработать адаптивный и робастный алгоритм нелинейного фильтра Калмана на основе критерия максимальной коррентропии;

5. Разработать много-источниковую тесносвязанную навигационную систему, которая гибко переключается между БИНС/ГНСС на открытой местности и визуально-инерциальной системой при блокировке спутниковых сигналов. Интегрировать в систему разработанный нелинейный робастный адаптивный фильтр Калмана для улучшения точности по сравнению с EKF в условиях шумов и выбросов и по сравнению с CKF.

6. Проанализировать точность существующих алгоритмов SLAM-навигации;

7. Разработать робастную систему визуальной навигации LSD-ORB-SLAM, которая использует как точечные, так и линейные признаки для повышения точности по сравнению с ORB-SLAM и LSD-SLAM.

8. Разработать систему визуальной одометрии и построения карт с

использованием методов глубокого обучения. Для распознавания динамических объектов использовать модифицированный YOLOv8 с механизмом внимания ESEA для повышения точности по сравнению с оригинальной версией и по сравнению с CBAM и SE. 9. Провести сравнительный анализ эффективности разработанных и существующих методов.

В соответствии с целью и задачами диссертационной работы объектом исследования является интегрированная навигационная система, состоящая из бесплатформенной инерциальной навигационной системы (БИНС) на базе микроэлектромеханических систем (МЭМС) и приемника ГНСС и ещё разные камеры для визуальной навигации, предметом исследования - Методы на основе ФК и графовой оптимизации и визуального одометра для повышения точности навигационных систем при отсутствии сигналов ГНСС в помещении.

Научная новизна проведенных исследований и полученных результатов состоит в следующем:

1. Разработана много-источниковая тесносвязанная навигационная система с новым критерием, которая гибко переключается между БИНС/ГНСС на улице и визуально-инерциальной системой при блокировке спутниковых сигналов. В систему интегрирован новый нелинейный робастный адаптивный фильтр Калмана на основе критерия максимальной коррентропии, что позволило улучшить точность по сравнению с EKF в условиях шумов и выбросов, а также по сравнению с CKF.

2. Предложена система визуальной навигации LSD-ORB-SLAM, которая использует как точечные, так и линейные признаки, улучшая точность относительно ORB-SLAM на различных наборах данных, и относительно LSDSLAM, наша система демонстрирует большую робастность.

3. Разработана система визуальной одометрии и построения карт с использованием методов глубокого обучения. Для распознавания динамических

объектов был использован модифицированный YOLOv8 с предложенным нами механизмом внимания ESEA, что повысило точность по сравнению с оригинальной версией и по сравнению с CBAM и SE. Также, для распознавания сцен при замыкании траекторий была применена VLADNet, увеличившая точность. Традиционные методы ORB и SURF заменены нейросетью ConvPoint, что повысило точность в зависимости от условий освещения. Прирост точности всей системы навигации и построения карты.

Практическая ценность диссертационной работы заключается в следующих результатах:

1. Предложенная интегрированная навигационная схема подвижного объекта с тесной связью комбинирует два различных режима навигационных систем: для внутренних помещений и для внешних городских условий. Разработанное программное обеспечение и алгоритмы могут быть использованы не только для мобильных устройств, поддерживающих позиционирование и навигацию в специфических условиях, но и для решения других задач, рассматриваемых в данной работе.

2. Схема также применима в универсальных сервисных машинах, для исследования шахт, в системах автономного вождения и для исследования внеземных условий на Луне и Марсе. Материалы исследования могут быть использованы для разработки методов на основе искусственных нейронных сетей, что повысит точность навигации с помощью недорогих визуальных сенсоров.

3. Разработано программное обеспечение в среде ROS на операционной системе Ubuntu 18.04 для моделирования визуальной системы SLAM. Также разработаны методы для повышения точности систем БИНС/ГНСС на основе МАТЛАБ в среде Windows 10 при отсутствии сигналов ГНСС. Результаты диссертационного исследования использованы в учебных

процессах кафедры системы автоматического управления МГТУ им. Н.Э.

Баумана и ООО "ShanXi vector-control aerospace Technology Co.Ltd".

Методы исследования.

Для решения задач, сформулированных в рамках исследования, применены

методы из широкого спектра научных дисциплин, включая теорию системного анализа, управление динамическими системами, принципы компьютерного зрения, теорию инерциальных, спутниковых, визуальных и интегрированных навигационных систем. Важное место занимают подходы теории вероятностей и теории оценивания, а также методы оптимизации, теория фильтрации Калмана, машинного обучения и искусственного интеллекта.

Эффективность предложенных алгоритмов проверялась посредством лабораторного моделирования и анализа данных, полученных с реальных навигационных систем. Для этого использовались среды моделирования MATLAB (версия R2021a) и ROS (Robot Operating System, версия Melodic 2018) под управлением операционной системы Ubuntu. Разработка программного обеспечения и тестирование алгоритмов велись с использованием языков программирования C++ и Python.

Кроме того, в ходе исследования применялись подходы, основанные на принципах системного проектирования навигационных алгоритмов, включая калибровку датчиков, интеграцию данных от различных источников и анализ ошибок измерений. Теоретические результаты дополнены экспериментальными исследованиями, проводимыми с учетом современных принципов математического моделирования, а также методов анализа спутниковых и инерциальных систем в условиях реальных эксплуатационных ограничений.

Положения, выносимые на защиту:

1. Новый нелинейный робастный адаптивный фильтр Калмана на основе критерия максимальной коррентропии, позволяющий улучшить точность по сравнению с расширенным и кубатурным фильтрами Калмана в условиях зашумленных и аномальных измерений.

2. Робастная система визуальной навигации LSD-ORB-SLAM, которая

использует как точечные, так и линейные признаки, обладающая более высокой точностью по сравнению с известными системами ORB-SLAM и LSD-SLAM.

3. Модифицированный алгоритм YOLOv8 с предложенным механизмом внимания ESEA, позволяющий повысить точность навигации по сравнению с оригинальной версией и по сравнению с методами CBAM и SE.

Степень достоверности результатов исследований. Основные результаты, полученные в работе, являются обоснованными на экспериментальных уровнях. Достоверность результатов достигается за счет имитационных и реальных экспериментов. Помимо этого, достоверности разработанных методов обеспечивается показателями точности по сравнению с существующими в литературе методами и алгоритмами.

Апробация работы. Основные результаты диссертационной работы докладывались и обсуждались на международных и всероссийских конференциях:

1. 21-я Всероссийская конференция с международным участием «Математические методы распознавания образов» (ММРО-2023), прошедшая в Москве с 12 по 15 декабря 2023 года.

2. Конференция XLV Академические чтения по космонавтике, посвящённая памяти академика С. П. Королёва и выдающихся отечественных учёных -первопроходцев космоса («Королёвские чтения-2021»), состоялась в Москве в период с 30 марта по 2 апреля 2021 года.

3. Конференция XLVI Академические чтения по космонавтике («Королёвские чтения-2022»), проходившая с 25 по 28 января 2022 года в Москве, была посвящена памяти академика С. П. Королёва и других пионеров освоения космоса.

4. Конференция XLVII Академические чтения по космонавтике («Королёвские чтения-2023»), проведённая в Москве с 24 по 27 января 2023 года, также отметила вклад академика С. П. Королёва и выдающихся отечественных

исследователей космического пространства.

5. Конференция XLVIII Академические чтения по космонавтике («Королёвские чтения-2024») состоится в Москве с 24 по 27 января 2024 года и продолжит традицию чествования великих пионеров космонавтики.

6. Международная научно-техническая конференция «Автоматизация», намеченная на 27-29 сентября 2024 года в городе Сочи, Россия.

7. И на научных семинарах и заседаниях кафедры «Системы автоматического управления» МГТУ им. Н.Э. Баумана.

Публикации. По теме диссертации опубликовано 9 работ, из них 3 - в изданиях из перечня ВАК РФ и 6 - в изданиях, индексируемых международной базой научного цитирования (Web of Science, Scopus).

Объем и структура диссертации. Диссертация состоит из списка сокращений, введения, пяти глав, заключения, рекомендаций и списка литературы. В начале каждой главы дается краткий обзор состояния соответствующих исследований. Общий объем диссертации составляет 179 страниц текста с 46 рисунками и 5 таблицами. Список цитированной литературы из 103 наименований.

Содержание работы

Во введении диссертации обоснована актуальность рассматриваемой темы, подчёркнута её значимость как в научной, так и в практической плоскости. Определены основные цели исследования, изложены сведения о структуре и содержании работы, а также сформулированы ключевые положения, которые выносятся на защиту. Дополнительно акцентируется внимание на междисциплинарном характере исследования, охватывающем области навигации, робототехники и искусственного интеллекта.

Первая глава посвящена анализу современных технологий, применяемых в мобильных системах, с особым акцентом на интегрированные навигационные решения, объединяющие инерциальные, спутниковые и визуальные системы. Представлен подробный обзор состояния исследований в данной области,

включая методы искусственного интеллекта, такие как глубокое обучение и машинное зрение, используемые для повышения точности и надёжности навигации. Проведён критический анализ недостатков существующих решений, что позволило сформулировать ключевые аспекты, требующие дальнейшего изучения. На основе этого был сформулирован ряд исследовательских задач, отражающих необходимость преодоления выявленных ограничений.

Вторая глава раскрывает задачу интеграции инерциальной навигационной системы (ИНС) и спутниковой навигационной системы (ГНСС) на основе тесносвязанной схемы. Описаны математические основы фильтрации Калмана, включая уравнения состояния и измерений, а также алгоритмы, такие как расширенный фильтр Калмана (РФК) и кубатурный фильтр Калмана (КФК), и его модифицированная версия. Также рассмотрены практические аспекты их применения для снижения ошибок, вызванных шумами сенсоров и прерыванием сигнала ГНСС.

Третья глава посвящена интеграции инерциальной и визуальной навигационных систем (ИНС/ВНС) с использованием тесносвязанной схемы и методов графовой оптимизации. Рассмотрены подходы на основе методов глубокого обучения, включая свёрточные нейронные сети (CNN), применяемые для анализа визуальных данных. Приведены результаты сравнения различных алгоритмов оптимизации траектории, основанных на графах, с целью повышения устойчивости системы в условиях сложных и динамических сред.

Четвёртая глава представляет ключевые экспериментальные результаты работы. Подробно описаны разработанные имитационные модели, включающие бесплатформенные инерциальные навигационные системы (БИНС), спутниковые системы (ГНСС) и визуальные системы (ВНС). Рассмотрено использование реального навигационного оборудования, а также платформ для моделирования, таких как MATLAB, ROS и специализированные симуляторы для мобильных объектов. Особое внимание уделено результатам тестирования

алгоритмов в различных сценариях, включая реальные условия эксплуатации.

В заключении подводятся итоги диссертации, обобщаются основные результаты исследования, включая достижения в области повышения точности и эффективности разработанных методов. На основе проведённой работы предложены рекомендации для дальнейшего улучшения алгоритмов, их адаптации к различным задачам робототехники и интеграции в перспективные навигационные системы. Также намечены направления будущих исследований, связанные с развитием методов работы в динамических средах и использованием новых сенсорных технологий.

1. Аналитическая и теоретическая часть

В первой главе представлены основные разработки в области навигационной системы и алгоритмов мобильных беспилотных объектов. Описаны основные подходы к построению математического модели мобильных объектов и базовые теории оценки состояния динамических систем. Приведены анализы существующих методов и алгоритмов для интеграции данных от различных сенсоров. Определены основная структура и основные требования к интегрированной навигационной системе, предназначенной для глобальной и локальной локализации и ориентирования. Сформулированы задачи исследования.

1.1. Обзор современных алгоритмов мобильных объектов и их

навигационные системы

Современные мобильные роботы представляют собой одну из наиболее динамично развивающихся областей робототехники, находя широкое применение в различных сферах, от автономного транспорта и промышленного использования до бытовых и сервисных задач. Эти роботы способны выполнять задачи, которые раньше считались исключительно человеческими, благодаря достижениям в области искусственного интеллекта, сенсорных технологий и автономной навигации. Требование выполнения мобильными роботами определённых задач самостоятельно обусловливает необходимость их способности адаптироваться к незнакомой среде. Поэтому технология SLAM [1] (Simultaneous Localization and Mapping, одновременная локализация и построение карты) рассматривается как необходимая способность для обеспечения автономности мобильных роботов. С момента своего появления в 1986 году большое внимание было уделено разработке и применению SLAM,

который активно развивается в областях робототехники, виртуальной реальности и других сферах. Под SLAM понимается процесс, при котором самопозиционирование осуществляется на основе данных о местоположении и карте, а карты строятся инкрементально на основе полученных данных. Основное внимание в SLAM уделяется решению задач локализации роботов и построения карты при их движении в неизвестной среде [2]. Как базовая технология, SLAM был применён для локализации и навигации мобильных роботов на ранних стадиях их разработки. С развитием компьютерных технологий (аппаратного обеспечения) и искусственного интеллекта (программного обеспечения) исследования роботов стали получать всё большее внимание и финансирование. Усилия многочисленных исследователей направлены на повышение интеллектуальности роботов. SLAM рассматривается как ключевая технология для достижения полной автономности мобильных роботов [3].

Беспилотные автомобили

Одной из самых заметных областей применения мобильных роботов являются беспилотные автомобили [4]. Эти транспортные средства оснащены сложными системами датчиков, включая камеры, лидары, радары и ультразвуковые сенсоры, которые позволяют им автономно передвигаться по дорогам общего пользования. Беспилотные автомобили способны оценивать дорожную обстановку, распознавать препятствия и принимать решения в реальном времени, обеспечивая безопасное и эффективное передвижение [5]. Разработка и тестирование таких автомобилей активно ведутся компаниями, такими как Tesla, Waymo и Uber.

Рис. 1.1. Беспилотные автомобили Apollo

Проект Baidu Apollo [6], известный как "Аполлон", представляет собой разработку беспилотного транспортного средства, созданного компанией Baidu в сотрудничестве с Kinglong и консорциумом из более чем 40 компаний. Автобус Apolong уровня 4 с микроциркуляцией начал массовое производство в 2017 году. Его производство осуществляется консорциумом, включающим Baidu, Kinglong и SB Drive.

Проект Apollo (Рис. 1.1) также включает в себя открытый код, предоставляющий широкий спектр инструментов и ресурсов для разработки и тестирования автономных транспортных средств. Открытая платформа Apollo позволяет разработчикам по всему миру сотрудничать и вносить вклад в развитие технологий беспилотного вождения.

Роботы для разведки и добычи в шахтах

В экстремальных условиях, таких как горные шахты и рудники, мобильные роботы играют ключевую роль в обеспечении безопасности и эффективности работ. Эти роботы могут исследовать опасные участки, где присутствие человека нежелательно или невозможно, собирать данные о состоянии инфраструктуры, искать полезные ископаемые и даже проводить ремонтные работы, как на Рис 1.2. Они оснащены мощными сенсорами и системами автономной навигации,

которые позволяют им работать в условиях ограниченной видимости и сложного рельефа.

Рис. 1.2. Роботы для разведки и добычи в шахтах Складские роботы

В сфере логистики и управления складом мобильные роботы обеспечивают высокую эффективность и точность операций. Такие компании, как Amazon и Alibaba, активно используют роботов для автоматизации процессов складирования, сортировки и доставки товаров, как на Рис 1.3. Эти роботы способны перемещаться по складам, избегая столкновений с препятствиями и людьми, что позволяет значительно сократить время выполнения заказов и уменьшить затраты на труд.

Рис. 1.3. Складские роботы

Домашние роботы-уборщики

Роботы-уборщики, такие как ЯоошЬа от компании 1ЯоЬо1 (Рис 1.4), стали неотъемлемой частью многих современных домов. Эти устройства используют различные технологии, включая датчики столкновения, камеры и алгоритмы машинного обучения, для эффективной уборки помещений. Они могут самостоятельно перемещаться по дому, избегать препятствий и даже возвращаться на зарядную станцию, когда уровень заряда батареи низкий.

Рис. 1.4. Домашние роботы Сервисные роботы в ресторанах

Сервисные роботы, выполняющие функции официантов в ресторанах, становятся все более популярными. Эти роботы способны принимать заказы, доставлять блюда и напитки к столикам и взаимодействовать с клиентами. Они

оснащены системами распознавания речи и лиц, что позволяет им обеспечивать высокий уровень обслуживания. Примеры таких роботов можно найти в некоторых ресторанах Японии и Китая, где они помогают уменьшить нагрузку на персонал и повысить качество обслуживания.

Стоит также упомянуть, что российские компании, такие как Yandex, Сбербанк и КАМАЗ, активно занимаются исследованиями и разработками в области автономного вождения, как показаны на Рис 1.5 и 1.6. Yandex, например, проводит испытания автономных автомобилей в реальных городских условиях, а КАМАЗ разрабатывает автономные грузовые автомобили для использования на заводах и в логистике. Компания Сбербанк представила две беспилотные автомобили, оснащенные множеством датчиков, на выставке роботов в известном московском парке ВДНХ.

Рис. 1.5. Беспилотная машина в КАМАЗ

Рис. 1.6. Беспилотная машина в Сбербанк

Система позиционирования и навигации представляет собой ключевой элемент управления автономными мобильными роботами [12,13,14]. Навигация и определение положения таких роботов, как «Спирит» и «Оппортьюнити», осуществляется с применением различных подходов, включая радиотехнические методы, счисление пути, визуальную одометрию, автокалибровку камеры на основе алгоритма настройки (Bundle Adjustment), а также астрономическую навигацию. Каждый из перечисленных подходов обладает определёнными преимуществами и ограничениями.

Методы радиотехнического позиционирования используют радиосвязь для решения навигационных задач, обеспечивая взаимодействие робота с Землёй или орбитальными аппаратами. Основным достоинством данного подхода является возможность выполнения глобального абсолютного позиционирования [15]. Однако автономное определение местоположения в режиме реального времени исключительно с использованием этого метода невозможно [16].

Счисление пути, основанное на данных от инерциальной навигационной системы (ИНС), позволяет рассчитать координаты и ориентацию робота. К преимуществам метода относятся его простота и низкое энергопотребление. Однако его точность со временем ухудшается из-за накопления ошибок,

вызванных дрейфом и скольжением колес [17, 18].

Визуальная одометрия частично компенсирует ошибки позиционирования, возникающие в процессе счисления пути, особенно те, что связаны со скольжением колес. Тем не менее, из-за ограничений в скорости обработки данных, обновление позиции робота на Земле занимает около трёх минут, что делает этот метод недостаточно быстрым для использования на всём протяжении движения [19]. Его основная область применения ограничивается локальным позиционированием на небольших расстояниях, например, при выполнении научных исследований.

Похожие диссертационные работы по специальности «Другие cпециальности», 00.00.00 шифр ВАК

Список литературы диссертационного исследования кандидат наук Шэнь Синь, 2025 год

Список использованной литературы

1. Smith R.C. On the Representation and Estimation of Spatial Uncertainty. // International Journal of Robotics Research(IJRR). 1986. P. 56-68.

2. Deng, G., Li, J., Li, W., Wang, H. SLAM: Depth image information for mapping and inertial navigation system for localization. // Proceedings of the 2016 Asia-Pacific Conference on Intelligent Robot Systems (ACIRS), Tokyo, Japan, 20-22 July 2016, P. 187-191.

3. Cui, L., Ma, C. SOF-SLAM: A Semantic Visual SLAM for Dynamic Environments. // IEEE Access 2019. P. 166528-166539

4. Bresson, G., Alsayed, Z., Yu, L., Glaser, S. Simultaneous Localization and Mapping: A Survey of Current Trends in Autonomous Driving. // IEEE Transactions on Intelligent Vehicles. 2017. P. 194-220.

5. Karlsson, N., Bernardo, E.d., Ostrowski, J., Goncalves, L., Pirjanian, P., Munich, M.E. The vSLAM Algorithm for Robust Localization and Mapping. // Proceedings of the Proceedings of the 2005 IEEE International Conference on Robotics and Automation, Barcelona, Spain, 18-22 April 2005. P. 24-29.

6. Xu, J., Luo, Q., Xu, K., Xiao, X., Yu, S., Hu, J., Miao, J. and Wang, J., 2019, November. An automated learning-based procedure for large-scale vehicle dynamics modeling on Baidu apollo platform. // 2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). P. 5049-5056.

7. Барамия Д.А., Дьяков М.С. Кузиковский С.А. Система одновременной локализации и построения карты на основе подхода coreslam // Автометрия, 2017. №. 53(6). С. 77-82.

8. Барамия Д.А., Дьяков М.С., Лаврентьев М.М. Разработка системы одновременной локализации и построения карты на основе данных с лидера и видеокамер // Вестник Новосибирского государственного университета. Серия: Информационные технологии. 2015. №. 13(1). С. 5-15.

9. Durrant-Whyte, H., Bailey, T. Simultaneous Localization and Mapping: Part I. // IEEE Robot. Autom. Mag. 2006. P. 99-110.

10. Gupta, A., Fernando, X. Simultaneous Localization and Mapping (SLAM) and Data Fusion in Unmanned Aerial Vehicles: Recent Advances and Challenges. // Drones. 2022. DOI: https://doi.org/10.3390/drones6040085

11. Казьмин В.Н. Вероятностный подход к решению задачи SLAM в трехмерном пространстве // Известия Южного федерального университета. Технические науки, 2017. №. 2 (187). С. 172-184.

12. Маленков М.И. Создание "Лунохода-1" - выдающееся научно-техническое достижение ХХ века // Вестник НПО им. СА Лавочкина. 2011. №. 1. С.13-21.

13. Павловский В.Е., Павловский В.В. Технологии SLAM для подвижных роботов: состояние и перспективы // Мехатроника, автоматизация, управление, 2016, №. 17(6). С. 384-394.

14. Прозоров А.В., Приоров А.Л. Алгоритм одновременной локализации и картирования с применением сигма-точечного фильтра Калмана // Техническое Зрение в Системах Управления-2016. С.45-48.

15. Собченко М.И. и Ухандеев В.И. Алгоритмы SLAM: обзор существующих решений // Электронные информационные системы. 2014. №.1. С.69-78.

16. Фомичев А.В., Ван Г. Высокоточный алгоритм визуально-инерциальной навигации // XLIV Академические чтения по космонавтике. М.: Изд-во МГТУ им. Н.Э. Баумана. 2020. T. 2. C. 240-242.

17. Chen, W., Shang, G., Jim, A., Zhou, C. An Overview on Visual SLAM: From Tradition to Semantic. //Remote Sensing. 2022, 14, 3010. DOI: https://doi.org/10.3390/rs14133010

18. Qiu, Y. Current status and analysis of the development of SLAM technology applied to mobile robots. //Journal of Physics: Conference Series 2023, 2649, 012016. DOI 10.1088/1742-6596/2649/1/012016

19. Xu, X., Zhang, L., Yang, J., Cao, C., Wang, W., Ran, Y., Tan, Z., Luo, M. A Review of

Multi-Sensor Fusion SLAM Systems Based on 3D LIDAR. Remote Sensing. 2022. 2835.

20. Barros, A., Michel, M., Moline, Y., Corre, G., Carrel, F. A Comprehensive Survey of Visual SLAM Algorithms. //Robotics 2022. 11. DOI: https://doi.org/10.1007/s10846-023-01812-7.

21. Sharafutdinov, D., Griguletskii, M., Kopanev, P., Kurenkov, M., Ferrer, G., Burkov, A., Gonnochenko, A., Tsetserukou, D. Comparison of Modern Open-source Visual SLAM Approaches. // Journal Intelligent and . Robotic System. 2023, 107, 43. DOI: https://doi.org/10.1007/s10846-023-01812-7

22. Mur-Artal, R., Montiel, J.M.M., Tardos, J.D. ORB-SLAM: A Versatile and Accurate Monocular SLAM System. //IEEE Transactions on Robotics. 2015, 31, P.1147-1163.

23. Mur-Artal, R., Tardos, J.D. ORB-SLAM2: An Open-source SLAM System for Monocular, Stereo, and RGB-D Cameras. // IEEE Transactions on Robotics. 2017, 33, 1255-1262.

24. Campos, C., Elvira, R., Rodriguez, J.J.G., Montiel, J.M.M., Tardos, J.D. ORB-SLAM3: An Accurate Open-Source Library for Visual, Visual-Inertial, and Multimap SLAM. // IEEE Transactions on Robotics. 2021, 37, P.1874-1890.

25. Qin, T., Li, P., Shen, S. VINS-Mono: A Robust and Versatile Monocular Visual-Inertial State Estimator. // IEEE Transactions on Robotics. 2018, 34, P. 1004-1020.

26. Engel, J., Schops, T., Cremers, D. LSD-SLAM: Large-Scale Direct Monocular SLAM. //Proceedings of the European Conference on Computer Vision. 6-12 September 2014. P. 834-849.

27. Engel, J., Koltun, V., Cremers, D. Direct Sparse Odometry. // IEEE Transactions on Pattern Analysis and Machine Intelligence. 2017. 40. P. 611-625.

28. Klein, G., Murray, D. Parallel Tracking and Mapping for Small AR Workspaces. //Proceedings of the 2007 6th IEEE and ACM International Symposium on Mixed and Augmented Reality, Nara, Japan, 13-16 November 2007. P. 225-234.

29. Bakkay, M.C., Arafa, M., Zagrouba, E. Dense 3D SLAM in Dynamic Scenes Using

Kinect. //Proceedings of the Iberian Conference on Pattern Recognition and Image Analysis (IbPRIA). Compostela. Spain. 2015. P. 121-129.

30. Li, S., Lee, D. RGB-D SLAM in Dynamic Environments Using Static Point Weighting. // IEEE Robotics and. Automation. Letters. 2017. P. 2263-2270.

31. Wang, R., Wan, W., Wang, Y., Di, K. A New RGB-D SLAM Method with Moving Object Detection for Dynamic Indoor Scenes. // Remote Sensing. 2019, 11, 1143.

32. Long, R., Rauch, C., Zhang, T., Lvan, V., Vijayakumar, S. RigidFusion: Robot Localisation and Mapping in Environments with Large Dynamic Rigid Objects. // IEEE Robot Automation Letters. 2021. 6. P. 3703-3710.

33. Ni, J., Wang, X., Gong, T., Xie, Y. An Improved Adaptive ORB-SLAM Method for Monocular Vision Robot under Dynamic Environments. // International Journal of Machine Learning and Cybernetics. 2022. 13. P. 3821-3836.

34. Бабиченко А.В. Прикладные методы обработки информационно-управляющих комплексов высокоманевренных летательных аппаратов: дис.... доктор техн. наук. Москва. 2009. 422 с.

35. Бабиченко А.В., Никулин А.С., Радченко И.В. Информационная интеграция инерциальной и спутниковой навигационных систем в модернизируемых бортовых комплексах высокоманевренных летательных аппаратов // Авиакосмическое приборостроение. 2008. № 11. С. 18-25.

36. Бабиченко А.В., орехов М.И., Рогалев А.П. основы построения системы комплексной обработки информации в интегрированных комплексах бортового оборудования перспективных многофункциональных летательных аппаратов // Авиакосмическое приборостроение. 2007. № 2. С.43-49.

37. Бабиченко А.В., Шкред В.К. оценка курсовой погрешности инерциальных навигационных систем // Авиакосмическое приборостроение. 2008. № 11. С.12-17.

38. Optimal nonlinear filtering in GPS/INS integration / Carvalho H. [et al.] // IEEE Transactions on Aerospace and Electronic Systems. 1997. Vol.33, № 3. P. 835-850.

39. Proletarsky A.V., Shen Kai, Neusypin K.A. Intelligent control systems: Contemporary problems in theory and implementation in practice // 2015 5th International Workshop on Computer Science and Engineering: Information Processing and Control Engineering, Moscow. 2015. P. 39-47.

40. Liu, Y., Gao, H., Guo, L., Qin, A., Cai, C., You, Z. A Data-Flow Oriented Deep Ensemble Learning Method for Real-Time Surface Defect Inspection. // IEEE Transactions on Instrumentation and Measurement. 2020, 69, P. 4681-4691.

41. Tunio, M.H., Li, J., Butt, M.H.F., Memon, I., Magsi, Y. Fruit Detection and Segmentation Using Customized Deep Learning Techniques. // Proceedings of the 2022 19th International Computer Conference on Wavelet Active Media Technology and Information Processing (ICCWAMTIP), Chengdu, China, 16-18 December 2022, P. 1-5.

42. Wang, K., Lin, Y., Wang, L., Han, L., Hua, M., Wang, X., Lian, S., Huang, B. A Unified Framework for Mutual Improvement of SLAM and Semantic Segmentation. // Proceedings of the 2019 International Conference on Robotics and Automation (ICRA), Montreal, QC, Canada, 20-24 May 2019, P. 5224-5230.

43. Li, Y., Qi, H., Dai, J., Ji, X., Wei, Y. Fully Convolutional Instance-Aware Semantic Segmentation. // Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Honolulu, HI, USA, 21-26 July 2017, P. 4438-4446.

44. Yuan, X., Chen, S. SaD-SLAM: A Visual SLAM Based on Semantic and Depth Information. // Proceedings of the 2020 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Las Vegas, NV, USA, 25-29 October 2020, P. 4930-4935.

45. Bescos, B., Campos, C., Tardos, J.D., Neira, J. DynaSLAM II: Tightly-Coupled Multi-Object Tracking and SLAM. // IEEE Robot. Autom. Lett. 2021, 6, P. 5191-5198.

46. Fang, B., Mei, G., Yuan, X., Wang, L., Wang, Z., Wang, J. Visual SLAM for Robot Navigation in Healthcare Facility. // Pattern Recognition. 2021, 113, 107822. DOI: https://doi.org/10.1016/j.patcog.2021.107822

47. Bescos, B., Fácil, J.M., Civera, J., Neira, J. DynaSLAM: Tracking, Mapping, and Inpainting in Dynamic Scenes. // IEEE Robotics and Automation Letters. 2018, 3, P. 4076-4083.

48. Zhong, Y., Hu, S., Huang, G., Bai, L., Li, Q. WF-SLAM: A Robust VSLAM for Dynamic Scenarios via Weighted Features. // IEEE Sensors Journal. 2022, 22, P/ 10818-10827.

49. Wu, W., Guo, L., Gao, H., You, Z., Liu, Y., Chen, Z. YOLO-SLAM: A Semantic SLAM System towards Dynamic Environment with Geometric Constraint. // Neural Computing and Applications. 2022. 34. P. 6011-6026.

50. Gomez-Ojeda, R., Moreno, F.A., Zuniga-Noel, D., Scaramuzza, D. and Gonzalez-Jimenez, J., 2019. PL-SLAM: A stereo SLAM system through the combination of points and line segments. // IEEE Transactions on Robotics. 35(3). P.734-746.

51. Zhou, H., Zou, D., Pei, L., Ying, R., Liu, P. and Yu, W., 2015. Struct-SLAM: Visual SLAM with building structure lines. // IEEE Transactions on Vehicular Technology, 64(4). P.1364-1375.

52. Pumarola, A., Vakhitov, A., Agudo, A., Sanfeliu, A. and Moreno-Noguer, F., 2017, May. PL-SLAM: Real-time monocular visual SLAM with points and lines. // 2017 IEEE international conference on robotics and automation (ICRA). P. 4503-4508.

53. Xu, Y., Wang, Y., Huang, J., Qin, H. ESD-SLAM: An Efficient Semantic Visual SLAM towards Dynamic Environments. // Journal of Intelligent and Fuzzy System. 2022. 42. P. 1064-1246.

54. You, Y., Wei, P., Cai, J., Huang, W., Kang, R., Liu, H. MISD-SLAM: Multimodal Semantic SLAM for Dynamic Environments. // Wireless Communications and Mobile. Computing. 2022. P. 1530-8669.

55. Zhang, Q., Yu, W., Liu, W., Xu, H., He, Y. A Lightweight Visual Simultaneous Localization and Mapping Method with a High Precision in Dynamic Scenes. // Sensors. 2023, 23, 9274. DOI: https://doi.org/10.3390/s23229274

56. Cheng, S., Sun, C., Zhang, S., Zhang, D. SG-SLAM: A Real-Time RGB-D Visual

SLAM Toward Dynamic Scenes with Semantic and Geometric Information. // IEEE Transactions on Instrumentation and Measurement. 2022. P. 1-12.

57. Song, S., Chen, J., Zhong, Y., Zhang, W., Hou, W., Zhang, L. SCE-SLAM: AReal-time Semantic RGBD SLAM System in Dynamic Scenes Based on Spatial Coordinate Error. // Measurement. Science and Technology. 2023, 34, 125006. DOI: 10.1088/1361-6501/aceb7e

58. Jin, J., Jiang, X., Yu, C., Zhao, L., Tang, Z. Dynamic Visual Simultaneous Localization and Mapping Based on Semantic Segmentation Module. // Applied Intelligence. 2023, 53, P. 19418-19432.

59. Shelhamer, E., Long, J., Darrell, T. Fully Convolutional Networks for Semantic Segmentation. // IEEE Transactions on Pattern Analysis and Machine Intelligence. 2017, 39, P. 640-651.

60. Badrinarayanan, V., Kendall, A., Cipolla, R. SegNet: A Deep Convolutional EncoderDecoder Architecture for Image Segmentation. // IEEE Transactions on Pattern Analysis and Machine Intelligence. 2017, 39, P. 2481-2495.

61. Sturm, J., Engelhard, N., Endres, F., Burgard, W., Cremers, D. A Benchmark for the Evaluation of RGB-D SLAM Systems. // Proceedings of the 2012 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Vilamoura, Portugal, 7-12 October 2012, P. 573-1174.

62. Yu, C., Liu, Z., Liu, X.J., Xie, F., Yang, Y., Wei, Q., Fei, Q. DS-SLAM: A Semantic Visual SLAM towards Dynamic Environments. // Proceedings of the 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Madrid, Spain, 15 October 2018. P. 1168-1174.

63. Liu, Y., Miura, J. RDS-SLAM: Real-Time Dynamic SLAM Using Semantic Segmentation Methods. // IEEE Access. 2021, 9, P. 23772-23785.

64. Liu, J., Li, X., Liu, Y., Chen, H. RGB-D Inertial Odometry for a Resource-Restricted Robot in Dynamic Environments. // IEEE Robotics and Automation Letters. 2022, 7, P. 9573-9580.

65. Zhang, Z., 2000. A flexible new technique for camera calibration. // IEEE Transactions on pattern analysis and machine intelligence, 22(11), P.1330-1334.

66. Poddar, S., Kumar, V. and Kumar, A., 2017. A comprehensive overview of inertial sensor calibration techniques. // Journal of Dynamic Systems, Measurement, and Control, 139(1), p.011006. DOI: https://doi.org/10.1115/L4034419

67. J. Engel, V. Koltun, and D. Cremers, Direct sparse odometry. // Transactions on pattern analysis and machine intelligence, 2017. P. 611-625.

68. C. Forster, M. Pizzoli, and D. Scaramuzza. SVO: Fast semi-direct monocular visual odometry. // IEEE International Conference on Robotics and Automation. 2014. P. 1522.

69. Y. Sun, M. Liu, and M. Q.-H. Meng, Improving RGB-D SLAM in dynamic environments: A motion removal approach. // Robotics and Autonomous Systems. 89. P. 110-122.

70. S. Li and D. Lee, RGB-D SLAM in dynamic environments using static point weighting. // IEEE Robotics and Automation Letters, 2017. P. 2263-2270.

71. L. Xiao, J. Wang, X. Qiu, Z. Rong, and X. Zou, Dynamic-SLAM: Semantic monocular visual localization and mapping based on deep learning in dynamic environment. // Robotics and Autonomous Systems. vol. 117. 2019. P. 1-16.

72. Global Positioning System: Theory and applications. V. 1. / Parkinson B.W. [et al.]. Chicago: American Institute of Aeronautics and Astronautics Press, 1995. 793 p.

73. Global Positioning System: Theory and applications. V. 2. /Parkinson B.W. [et al.]. Chicago: American Institute of Aeronautics and Astronautics Press, 1995. 643 p.

74. Groves P.D. Principles of GNSS, inertial, and multi-sensor integrated navigation systems. Artech House, 2013.800 p.

75. S. Yang and S. Scherer, CubeSLAM: Monocular 3-D object SLAM. // IEEE Transactions on Robotics. vol. 35. no. 4. 2019. P. 925-938.

76. J. Huang, S. Yang, T.-J. Mu, and S.-M. Hu, ClusterVO: Clustering Moving Instances and Estimating Visual Odometry for Self and Surroundings. // IEEE Conference on

Computer Vision and Pattern Recognition. 2020. P. 2168-2177.

77. J. Zhang, M. Henein, R. Mahony, V. Ila, VDO-SLAM: A Visual Dynamic Object-aware SLAM System. // arXiv:2005.11052, 2020. DOI: https://doi.org/10.48550/arXiv.2005.11052.

78. C.-C. Wang, C. Thorpe, and S. Thrun, Online simultaneous localization and mapping with detection and tracking of moving objects: Theory and results from a ground vehicle in crowded urban areas. // IEEE International Conference on Robotics and Automation, 2003. P. 842-849.

79. S. Wangsiripitak and D. W. Murray. Avoiding moving outliers in visual SLAM by tracking moving objects. // IEEE International Conference on Robotics and Automation. 2009. P. 375-380.

80. J. G. Rogers, A. J. Trevor, C. Nieto-Granda, H. I. Christensen. SLAM with expectation maximization for moveable object tracking. // IEEE International Conference on Intelligent Robots and Systems, 2010. P. 2077-2082.

81. I. A. Barsan, P. Liu, M. Pollefeys, A. Geiger, Robust dense mapping for large-scale dynamic environments. // IEEE International Conference on Robotics and Automation. 2018. P.7510-7517.

82. A. Rosinol, A. Gupta, M. Abate, J. Shi, L. Carlone, 3D Dynamic Scene Graphs: Actionable Spatial Perception with Places, Objects, and Humans. // arXiv:2002.06289, 2020.

83. A. Geiger, P. Lenz, C. Stiller, R. Urtasun, Vision meets robotics: The kitti dataset. // IJRR, vol. 32, no. 11, P. 1231-1237, 2013.

84. C.-C. Wang, C. Thorpe, S. Thrun, M. Hebert, H. Durrant-Whyte, Simultaneous localization, mapping and moving object tracking. // The International Journal of Robotics Research. vol. 26. no. 9. 2007. P.889-916.

85. M. Runz, L. Agapito. Co-fusion: Real-time segmentation, tracking and fusion of multiple objects. // IEEE International Conference on Robotics and Automation. 2017. P. 4471-4478.

86. M. Runz, M. Buffier, and L. Agapito. Maskfusion: Real-time recognition, tracking and reconstruction of multiple moving objects. // IEEE International Symposium on Mixed and Augmented Reality, 2018. P. 10-20.

87. B. Xu, W. Li, D. Tzoumanikas, M. Bloesch, A. Davison, and S. Leutenegger. MID-fusion: Octree-based object-level multi-instance dynamic SLAM. // IEEE International Conference on Robotics and Automation. 2019. P. 5231-5237.

88. M. Henein, G. Kennedy, R. Mahony. Exploiting rigid body motion for SLAM in dynamic environments. // IEEE International Conference on Robotics and Automation, 2018. DOI: https://natanaso.github.io/rcw-icra18/assets/ref/ICRA-MRP18_paper_13.pdf

89. J. Huang, S. Yang, Z. Zhao, Y.-K. Lai, S.-M. Hu. ClusterSLAM: A SLAM Backend for Simultaneous Rigid Body Clustering and Motion Estimation. // Proceedings of the IEEE/CVF International Conference on Computer Vision. 2019. P. 5875-5884.

90. E. Rublee, V. Rabaud, K. Konolige, G. Bradski. ORB: An efficient alternative to SIFT or SURF. // IEEE International Conference on Computer Vision. 2011. P. 2564-2571.

91. K. Bernardin, R. Stiefelhagen, Evaluating multiple object tracking performance: the CLEAR MOT metrics. // EURASIP Journal on Image and Video Processing, 2008. P. 1-10.

92. X. Chen, K. Kundu, Y. Zhu, H. Ma, S. Fidler, and R. Urtasun, 3D object proposals using stereo imagery for accurate object class detection. // IEEE Transactions on Pattern Analysis and Machine Intelligence. vol. 40. no. 5. 2017. P. 1259-1272

93. D. Bolya, C. Zhou, F. Xiao, and Y. J. Lee, YOLACT: Real-time instance segmentation. // IEEE International Conference on Computer Vision. 2019. P. 9157-9166

94. Wu Y., Chen S., Yin T. GNSS/INS tightly coupled navigation with robust adaptive extended Kalman filter. // International Journal of Automotive Technology, 2022. 23(6). P.1639-1649.

95. Arasaratnam I., Haykin S. Cubature kalman filters. // IEEE Transactions on automatic control. 2009. 54(6). P.1254-1269.

96. Nourmohammadi, H. and Keighobadi, J., 2017. Decentralized INS/GNSS system with MEMS-grade inertial sensors using QR-factorized CKF. // IEEE Sensors Journal, 17(11), P.3278-3287.

97. Liu, J., Cai, B.G., Tang, T. and Wang, J. August. A CKF based GNSS/INS train integrated positioning method. // 2010 IEEE International Conference on Mechatronics and Automation. 2010. P. 1686-1689.

98. Mallick, M., Tian, X. and Liu, J. October. Evaluation of measurement converted KF, EKF, UKF, CKF, and PF in GMTI filtering. // 2021 International Conference on Control, Automation and Information Sciences (ICCAIS). 2021. P. 21-27.

99. Wen, W., Kan, Y.C. and Hsu, L.T. September. Performance comparison of GNSS/INS integrations based on EKF and factor graph optimization. // Proceedings of the 32nd International Technical Meeting of the Satellite Division of The Institute of Navigation (ION GNSS+ 2019). 2019. P. 3019-3032.

100. Arandjelovic, R., Gronat, P., Torii, A., Pajdla, T. and Sivic, J., 2016. NetVLAD: CNN architecture for weakly supervised place recognition. // Proceedings of the IEEE conference on computer vision and pattern recognition. P. 5297-5307.

101. Liu, L., Chen, J., Fieguth, P., Zhao, G., Chellappa, R. and Pietikainen. From BoW to CNN: Two decades of texture representation for texture classification. // International Journal of Computer Vision. 2019. 127. P.74-109.

102. Wu J., Cui Z., Sheng V.S., Zhao P., Su D. and Gong S. A Comparative Study of SIFT and its Variants. // Measurement science review. 2013. 13(3). P.122-131.

103. Ma, Y. Research on High-Definition Sports Event Video Image Processing System Based on Computer Shi-Tomas Algorithm. // 2024 IEEE 3rd International Conference on Electrical Engineering, Big Data and Algorithms (EEBDA). 2024. P. 735-740.

Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.