Идентификация подвижных наземных объектов с борта беспилотного летательного аппарата тема диссертации и автореферата по ВАК РФ 05.11.16, кандидат технических наук Казбеков, Борис Валентинович

  • Казбеков, Борис Валентинович
  • кандидат технических науккандидат технических наук
  • 2013, Москва
  • Специальность ВАК РФ05.11.16
  • Количество страниц 159
Казбеков, Борис Валентинович. Идентификация подвижных наземных объектов с борта беспилотного летательного аппарата: дис. кандидат технических наук: 05.11.16 - Информационно-измерительные и управляющие системы (по отраслям). Москва. 2013. 159 с.

Оглавление диссертации кандидат технических наук Казбеков, Борис Валентинович

Содержание

Введение

1 Проблемные вопросы теории и практики обработки изображений

1.1 Специфика предметной области

1.2 Анализ способов представления изображений и методы сопоставления изображений

1.3 Существующие методы обработки видеопотока, поступающего со стационарно расположенной камеры

1.4 Существующие методы обработки видеопотока, поступающего с камеры, расположенной на подвижном носителе

1.5 Постановка задачи диссертационного исследования

1.6 Основные результаты и выводы по материалам первой главы

2 Разработка методического аппарата обработки видеопотока

2.1 Обнаружение подвижных объектов

2.2 Использование инфракрасных снимков для уточнения маски движения

2.3 Идентификация наземного объекта

2.4 Основные результаты и выводы по материалам второй главы

3 Разработка алгоритма автоматической идентификации подвижных наземных объектов по анализу видеопотока

3.1 Предобработка

2

3.2 Выбор пары кадров для анализа

3.3 Определение подвижных наземных объектов

3.4 Комплексирование алгоритмов обработки изображений видимого

и инфракрасного диапазонов

3.5 Определение характеристик найденных объектов и их идентификация

3.6 Основные результаты и выводы по материалам третьей главы

4 Экспериментальные исследования разработанного алгоритма идентификации подвижных наземных объектов по анализу видеопотока

4.1 Описание бортовой аппаратуры

4.2 Результаты моделирования

4.3 Результаты анализа видеофрагментов, полученных с борта беспилотного летательного аппарата

4.4 Результаты совместного анализа изображений видимого и инфракрасного диапазонов

4.5 Основные результаты и выводы по материалам четвертой главы

Заключение

Список использованной литературы

Рекомендованный список диссертаций по специальности «Информационно-измерительные и управляющие системы (по отраслям)», 05.11.16 шифр ВАК

Введение диссертации (часть автореферата) на тему «Идентификация подвижных наземных объектов с борта беспилотного летательного аппарата»

Введение

Актуальность работы

В настоящее время всё более интенсивно применяются системы первичной обработки и детального анализа видеоинформации. Такие системы используют в различных областях человеческой деятельности. Наиболее широкое распространение они получили при решении следующих задач: навигация различных судов, космический мониторинг Земли, контроль производства, обеспечение безопасности различных объектов, мониторинг транспортных потоков, хранение и ретрансляция видеоматериалов, медицинские и военные приложения.

Со значительным ростом объёмов видеоинформации, фиксирующей реальные события, соответственно увеличиваются затрачиваемые ресурсы на её обработку. Помимо этого, не редко видеоматериалы содержат факты, для анализа которых требуется привлечение высокооплачиваемых специалистов, способных квалифицированно и качественно описать зафиксированный материал. В связи с этим появляется задача снизить материальные, а главное временные затраты на анализ видеоматериалов, полученных из различных источников.

За последние десять лет было разработано достаточно большое число методов и алгоритмов обработки видеоданных. Созданы и успешно функционируют различные системы анализа видеоматериалов: система «Hawk-Еуе» - программно-аппаратный комплекс, моделирующий траекторию спортивного снаряда; система «Стрелка» стационарный радарный комплекс контроля дорожного трафика и регистрации нарушений; компьютерная система видеоанализа (КСВА) «Бастион-Номер» -предназначена для считывания государственных регистрационных знаков

(номеров) движущихся транспортных средств и их автоматического поиска по базам данных; детектор движения «IVA» (Intelligent Video Analysis) -система интеллектуального видеонаблюдения и анализа данных; система обработки видеоизображений «Охотник» - система автоматического обнаружения и сопровождения подвижных целей и многие другие.

Одним из целевых направлений создания систем сбора и обработки видеоинформации является разработка бортовых систем видеослежения, предназначенных для обработки данных, поступающих с подвижных объектов, таких как самолёты, вертолёты, корабли, автомобили или танки. При решении таких задач [1], видеопоток необходимо представить в виде пронумерованных кадров, разработать и реализовать такой алгоритм поиска интересующих нас событий, в результате выполнения которого они будут автоматически найдены и проанализированы. Стоит отметить, что такое представление видеоматериалов значительно усложняется в случае, если обработку данных нужно производить в реальном времени. В этой ситуации время, отведённое на поиск событий, ограничено и напрямую зависит от скорости и объёма поступающих данных. Это приводит к требованиям повышения производительности бортовых компьютеров и снижения вычислительной сложности алгоритма. Бортовые системы видеослежения должны функционировать в полуавтономном, автономном и автоматическом режимах, требуя от оператора минимум действий и предоставляя ему необходимую информацию в наиболее удобной форме.

При создании бортовых систем видеослежения, использующихся на беспилотных летательных аппаратах (БЛА), возникает ряд задач, связанных с трудностями обнаружения, выделения и сопровождения объектов, находящихся в поле зрения датчика изображений. В качестве таких объектов могут выступать различные летательные аппараты, легковые и грузовые автомобили, различная военная техника, суда, люди и т.п. При этом поле

зрения видеодатчика подвижно, а априорная информация о характеристиках объектов обычно довольно скудна и, зачастую, включает в себя только приблизительные размеры объектов интереса и характер их перемещения.

Помимо этого видеодатчик, расположенный на борту БЛА, перемещается в пространстве вместе с ним, при этом его (видеодатчика) ориентацию в пространстве можно изменять при помощи устройства позиционирования. В процессе съёмки могут изменяться условия освещённости, высота или масштаб съёмки, скорость полёта самого БЛА. Зачастую видеодатчик испытывает воздействие вибраций различной природы. Формируемые им изображения подвергаются искажениям из-за влияния перечисленных факторов. Они затрудняют, а иногда делают совершенно невозможным решение многих задач: обнаружение подвижных объектов, разделение и параметризация сопровождаемых объектов, расположенных близко друг к другу, анализ траекторий сопровождаемых объектов. Искажения, вызванные вибрациями корпуса БЛА, и сложные условия работы оператора приводят к повышению числа ошибок обнаружения объектов интереса.

Природные явления, такие как дождь, снег, туман, ветер могут вносить заметный элемент зашумления и колебания в изначально неподвижную сцену, создавать сильные помехи, частично закрывая поля зрения камеры. Все это делает алгоритмы, отлично работающие в одних условиях, совершенно непригодными для других.

Существует ещё ряд причин, которые делают актуальным процесс автоматизации анализа видеопотока, получаемого с бортовой камеры БЛА: ограничения по дальности полёта БЛА каналом связи при дистанционной обработке данных оператором и существенная временная задержка в режиме постобработки данных.

Ещё одной важной особенностью задачи обработки информации, получаемой с датчиков, расположенных на борту БЛА, с целью идентификации объектов, находящихся на изображении, является отсутствие для исследуемых реальных ситуаций или объектов сколько-нибудь адекватных математических моделей, на базе которых можно было бы вести расчёты и получать количественные или качественные выводы.

Подводя итог вышесказанному, следует отметить, что, хотя и имеется большое количество разработанных алгоритмов анализа видеоданных, рассматриваемая область всё ещё является плохо исследованной. Таким образом, актуальность темы диссертации обусловлена недостаточной проработкой и большой практической значимостью вопросов анализа видеопотока, получаемого с бортовой видеокамерой БЛА.

Цель и задачи исследования

Целью диссертационного исследования является разработка системы отслеживания и идентификации подвижных наземных объектов в видеопотоке, получаемом с бортовой видеокамеры БЛА. Для достижения поставленной цели необходимо решить следующие задачи:

• провести анализ существующих алгоритмов обнаружения, сопровождения и идентификации подвижных объектов;

• формализовать условия работы разрабатываемой системы;

• разработать математическое обеспечение и проблемно-ориентированное программное обеспечение, позволяющее отслеживать и идентифицировать подвижные наземные объекты в видеопотоке, получаемом с бортовой видеокамеры БЛА;

• провести анализ совместной обработки данных, полученных в видимом и инфракрасном диапазонах.

При исследовании использовались методы математического моделирования, компьютерного зрения, математической статистики и теории вероятностей.

Научная новизна работы

- Разработана методика определения вектора межкадрового сдвига, сопоставляемых изображений видеопотока.

- Разработан алгоритм автоматического выделения подвижных наземных объектов в видеопотоке на основе анализа маски движения.

- Разработан комплексный алгоритм, совместной обработки данных, полученных в видимом и инфракрасном диапазонах.

- Реализован модернизированный алгоритм идентификации подвижных наземных объектов.

- Получены результаты исследования, подтверждающие возможность реализации разработанного комплекса алгоритмов в реальном времени на бортовых вычислителях.

Практическая значимость полученных результатов

Практическая значимость заключается в том, что подтверждена возможность реализации разработанных частных алгоритмов идентификации подвижных наземных объектов, по анализу видеопотока, получаемого с бортовой видеокамеры БЛА, входящих в комплексный алгоритм решения целевых задач БЛА, в реальном времени. Разработаны и сформулированы требования к характеристикам БЛА и целевой аппаратуры, устанавливаемой на нем.

1 Проблемные вопросы теории и практики обработки изображений

Сегодня технический уровень съёмочной аппаратуры позволяет получать необходимые данные оптимального качества для их автоматизированной или автоматической обработки. Накоплен опыт и имеется большое количество теоретических материалов, описывающих методы и алгоритмы обработки видеоданных [2,3]. Существуют современные вычислительные средства необходимой производительности для реализации тех или иных алгоритмов обработки данных. Но главной особенностью задачи обработки видеоданных на борту БЛА, с целью идентификации подвижных наземных целей, является отсутствие универсальных или общих математических моделей, которые позволили бы вести расчёты и получать качественные и количественные характеристики исследуемых объектов. Поэтому задачи обработки изображений можно отнести к плохо формализованной области, которые принято [4] делить на три основных типа:

- Задачи моделирования основных процессов человеческого мышления.

- Задачи формирования строгих математических моделей, применяемых в узконаправленных прикладных областях.

- Создание алгебраических методов, описывающих необходимые преобразования информации и дающие конечные числовые характеристики.

Практическим доказательством возможности решения задач последнего типа служит существование решений плохо формализованных задач на основе некоторых комплексных алгоритмов без построения математических моделей реальных процессов [5].

Таким образом, принято полагать, что комплексные алгоритмы решения определённых задач являются моделями преобразований обрабатываемой информации. Такие комплексы алгоритмов создаются в процессе формализации анализа информации человеком, их обычно называют «алгоритмы распознавания» [6].

Основной подход в формировании комплекса частных алгоритмов заключается в экспериментальном подборе, комплексировании и, при необходимости, модернизации существующих алгоритмов, при этом учитывается специфика предметной области и ограничения, сформулированные в постановке задания. Данный принцип лежит в основе многих существующих систем, а также в современных научных разработках, что подтверждается многочисленными работами отечественных и зарубежных исследователей [7-10].

1.1 Специфика предметной области

Задача идентификации движущихся объектов возникла довольно давно, но в силу своей специфики она до сих пор не имеет общего решения. Существуют лишь эффективные частные методы решения подобных задач.

Каждое изображение в отдельности содержит довольно сложную и комплексную информацию о наблюдаемой сцене, несмотря на простое описание самого изображения. Извлечь из изображений какую-нибудь структурированную и осмысленную информацию о наблюдаемой сцене невероятно сложно. Задача многократно усложняется, если видеопоток получен с движущейся камеры, особенно, если фиксируется динамическая сцена. Поэтому необходимы методы, которые позволили бы извлекать из видеопотока некоторую, хоть и неполную, но осмысленную и достаточно просто структурированную информацию об объектах сцены и её динамике.

Для извлечения такой информации видеопоток представляют в виде пронумерованной последовательности кадров [1], и осуществляется анализ уже отдельной группы изображений. При этом выполняемые процедуры не должны приводить к потере информации, так как может быть утеряна межкадровая связь.

Необходимо учитывать условия съёмки и факторы, воздействующие на результирующее изображение, так как они непосредственно влияют на методы его последующего анализа.

Так как съёмка происходит в видимом диапазоне, то одним из самых значимых параметров является уровень освещённости объекта. В случаях частичного или полного затемнения объекта, слабой освещенности или съёмки в ночное время суток при отсутствии искусственного освещения объект становится малоразличимым и сливается с окружающим его фоном. Контуры объекта размываются, а при повышении контрастности изображения, оно сильно зашумляется, что делает его обработку невозможной. В связи с этим главным требованием к организации наблюдения за подвижными наземными объектами является ведение съёмки в условиях хорошей освещённости.

Также при организации наблюдения за подвижными наземными объектами следует учитывать возможный характер движения наблюдаемых объектов. Например, если речь идёт об обнаружении автомобиля [11], идущего по дороге, то и траектория движения БЛА должна распространяться вдоль этой дороги, а не поперек ей. Другими словами организация наблюдения должна максимизировать вероятность попадания и время пребывания объекта в поле зрения камеры, что позволит более точно определять его характеристики.

Необходимо учитывать ограничение на скорость перемещения самого наземного объекта, т.к. малоподвижные объекты становятся неотличимы от подстилающей поверхности в случае их идентификации с борта БЛА.

Высота полета БЛА и масштаб съёмки должны обеспечивать оптимальное соотношение площади объекта интереса к самому кадру. В противном случае объекты интереса могут быть малоразличимы или отнесены к подстилающей поверхности из-за небольших или наоборот больших геометрических размеров объекта относительно самого изображения.

Наряду с вышеперечисленными условиями, большую роль на качество полученных данных оказывает система стабилизации видеодатчика БЛА. Вибрации различной природы приводят к зашумлению получаемого изображения или его «смазу». Отношение сигнал/шум при отсутствии стабилизирующего оборудования близко к единице, что не позволят выделить полезный сигнал. Для компенсации помех такого рода видеодатчик располагают на стабилизированной платформе [12].

Помимо внешних факторов, оказывающих непосредственное влияние на конечные данные, большое значение имеют характеристики самого видеодатчика, расположенного на борту БЛА [13]: частота кадров, угол обзора, разрешение, чувствительность, СКО внутреннего шума, динамический диапазон и т.д. Поэтому характеристики камеры должны обеспечивать заданное качество получаемого изображения.

1.2 Анализ способов представления изображений и методы сопоставления изображений

Несмотря на простую структуру описания, изображения обладают разнообразным априорно неизвестным содержанием с точки зрения информации, содержащейся на них: могут создаваться при помощи

12

разнообразных камер и сенсоров и на них могут быть зафиксированы различные объекты с произвольными характеристиками. Помимо этого, изображения непосредственно зависят от условий и параметров съемки (уровень освещенности, точка и ракурс съемки), следовательно, обладают свойством изменчивости [14]. Как было сказано ранее, из-за невозможности создания общего алгоритма решения задачи распознавания разрабатывается большое количество частных алгоритмов и методов.

При решении конкретной задачи возникает проблема выбора существующих методов [15, 16], а значит и вопрос их сравнения и определения эффективности работы при заданных начальных условиях. Главным критерием при совершении выбора в пользу конкретного метода является способ представления изображения. Считая представлением изображения некую формализованную систему алгоритмов извлечения смысловой информации [17], распознавание изображений можно считать последовательным процессом обработки исходных данных с целью извлечения этой информации. При этом исходные данные проходят те или иные промежуточные стадии представления, основными из которых являются:

• низкоуровневые [18];

• контурные [19];

• структурные [20];

• признаковые [21,22].

В ходе диссертационного исследования был проведен анализ существующих способов представления изображений и обоснован выбор одного из них для решения поставленной задачи.

Низкоуровневые представления

Для любых информационных систем, вне зависимости от области применения, базовым представлением изображений является представление на пиксельном уровне. В теории обработки изображений понятия «содержание» и «форма представления» строго разделены. Стандартный пиксельный способ представления включает полный объем содержащейся в изображении информации, но он не приемлем для ее автоматической обработки (распознавание или сравнение изображений).

Для описания изображения, в случае отсутствия дополнительной априорной информации о его содержимом, используют такие характеристики изображения как яркость, цвет и текстура. За последнее время было разработано множество моделей описания этих характеристик й метрик [18, 23], используемых при сопоставлении изображений, а также методов оценки эффективности их применения. Иными словами такие представления позволяют создать математическую модель, правила анализа и обработки функций, удовлетворяющих этой модели, и перейти к точному математическому определению степени сходства сравниваемых изображений, как некоторому «расстоянию» выбранной метрики. Принято выделять два основных типа представлений таких моделей:

• функциональные;

• в виде случайных полей.

В первом случае изображение описывается, как функция из некоторого пространства:

Г:С->У,ОсКп,УсКт, (1.1)

где в - область определения функции, а V - область ее значений. Величина п — размерность изображения (в большинстве случаев п=2), а ш — число координат вектора значений каждого пикселя.

Во втором случае изображение описывается в виде реализаций случайного процесса.

Основными преобразованиями, которые позволяют выполнять функциональные представления, являются:

1. Масштабирование, вращение и т.д.:

Г2(х')=адх)),ё:0->02, (1.2)

где g - функция, преобразования первоначального изображения Г на области определения О в конечное изображение f2 на области определения вг-

2. Изменения яркости, контраста или преобразования цветового пространства - V:

52(Х)=ВДХ)),1КУ-»У2, (1.3)

где Ь — функция сопоставления значения функции Дх) в области V и У2.

3. Линейная фильтрация:

=Т(0=£ ® ср, $ О ср){х) = ¡Г(уМх - у)ёу. (1.4)

Так как «инвариантность» представления - это базовое свойство теории распознавания, то функциональные представления изображений, обладающие этим свойством, являются базовыми и дают возможность сформулировать определение «инвариантности».

Решение задачи сопоставления изображений сводится к нахождению такого преобразования, которое минимизирует норму в определенном пространстве (например, в евклидовом):

^^^^ (1-5)

Функциональные представления изображений инвариантны только к элементарным преобразованиям и из-за этого область их применения достаточно узка. Методы, основанные на функциональных представлениях,

обычно используют для нахождения сдвига двух перекрывающихся изображений.

Второй тип представления (в виде случайных полей) является более общим, так как детерминированные функции - это подкласс случайных.

При описании изображения в виде стохастической модели считается заданным некоторое число параметров [24]: % = с определенной

плотностью распределения априорных вероятностей р(%) и функция, определяющая распределение вероятностей по изображению при этих параметрах: р(^х)-

Распознавание изображений с применением таких представлений делает возможным вычисление энтропии Н, как меры сходства:

1(£1(х),^(Т(Х)))=Н(Г1(Х))+Н(^(Т(Х)))-Н(£1(Х),£2(Т(Х))), (1.6)

где Т — некоторое пространственное преобразование, энтропия вычисляется по формуле:

Нф = -рф1оё2р(£), (1.7)

а энтропии нескольких случайных величин вычисляется по формуле:

(1-8)

*1*2

Энтропия нечувствительна к глобальным изменениям яркости изображений, что делает соответствующие представления более устойчивыми к различным искажениям. Так как стохастические модели изображений описываются фиксированными характеристиками, то появляется способ отличать регулярную и случайную составляющую изображений. Например, операция сравнения рассматриваемого изображения с «эталонным» может быть произведена по этим характеристикам.

Подводя итог вышесказанному, стоит отметить, что низкоуровневые модели обычно применяются при первичной обработке изображений или в условиях небольших изменений.

Контурные представления

Контур - это локальная область резкого изменения яркости на изображении, появляющиеся на «границах» объектов, находящихся на изображении. Методы формирования контуров делят на глобальные и локальные [25, 26]. Для глобальных методов свойственно разделение изображения на однородные области, анализ границ которых позволяет восстановить контур. В основе локальных методов лежит операция нахождения последовательностей максимумов производных (первого или второго порядка) от функции яркости изображения - градиентов. Среди локальных методов поиска контуров также выделяют оконный метод, основанный на применении маски. Среди преимуществ таких методов можно выделить высокое шумоподавление и робастность операций определения контуров, а к недостаткам можно отнести достаточно высокое значение вероятности появления ложных контуров.

Классическими методами выделения контуров являются операторы: Робертса [27], Превитт [28], Собела [29], Канни [30], Дериша [31], Линденберга [32] и др.

Выделение контуров применяется в задачах:

- сопоставления изображений друг с другом или с векторной моделью (географическими картами или чертежами изделий);

- определения формы объектов или однородных областей на изображении;

- формирования структурных описаний изображений.

Контурные методы распознавания основываются на преобразованиях расстояния, необходимых при определении той или иной меры: для каждого пикселя изображения вычисляются минимальные расстояния до последовательности точек набора контуров, содержащихся на нем, затем эта операция выполняется для другого изображения и определяется суммарное расстояние 2-х наборов контуров. Таким образом, выполняя последовательный перебор точек, находится минимум результирующей функции расстояний, однако, при решении задач распознавания необходимо накладывать ограничения на область поиска: либо на размер самой области либо на количество параметров.

Среди преимуществ контурных методов принято выделять следующие положения:

- контур представляет собой некий «концентратор» информации;

— контур однозначно описывает форму объектов;

- контур является устойчивой характеристикой объекта;

— контур описывается малым количеством точек, а значит существенно уменьшает объем вычислений.

Главным недостатком контурных методов распознавания являются значительные ограничения на тип пространственных преобразований допустимые при формировании изображении, что делает невозможным их применение в реальных условиях съемки, вызывая появление большого числа ложных контуров.

Структурные представления

Ранее были изложены принципы построения исходных изображений, как двумерного массива пикселей и принципы построения контуров, как одномерного массива. Следующим уровнем абстракции являются структурные представления, причем считается, что их размерность равна 0.

Структурные представления базируются на методах обобщения или формирования составных структур из непроизводных структурных элементов, в качестве которых могут выступать линии, углы, пятна, прямоугольники, эллипсы, дуги и другие геометрические фигуры [33]. Недостатком большинства структурных методов является строгая привязка к содержанию обрабатываемых изображений, поэтому все алгоритмы, основанные на структурном анализе, имеют узкую направленность.

Разработаны некоторые частные методы обобщения непроизводных структурных элементов с целью формирования составных структур, которые не зависят от решаемой задачи, но в теории обработки изображений почти отсутствуют какие-либо обоснования этих методов. Самой общей теоретической моделью считается «концепция Марра об иерархической пространственной организации реального мира» [34].

При решении задачи сопоставления двух изображений с помощью структурных методов, обычно, выполняется поиск «похожих» структур, учитывая всевозможные параметры: масштаб, взаимная ориентация и расположение, типы самих структур и т.д. В основе методов поиска [35] могут лежать эволюционные вычисления, нейронные сети, преобразования Хо, методы простого перебора или пошаговой оптимизации и т.д.

Еще одним недостатком структурных методов сопоставления является их сильная изменчивость, то есть они не обладают свойством инвариантности, следовательно, при изменении условий съемки выбранные структуры могут измениться, что приводит к уменьшению вероятности распознавания или снижению точности. Помимо этого, алгоритмы, основанные на структурных представлениях, нечувствительны к малоразмерным (100x100 пикселей) и плохо структурированным объектам (тени, дымы и т.д.).

Признаковые представления

Признаковые методы — наиболее распространены в теории распознавания изображений [36-40]. Они основаны как на статистических, так и детерминированных подходах. Признак задается в виде некоторой функции значений, описывающих рассматриваемую группу пикселей (объект), и численно выражает характеризующую этот объект величину. Особое внимание уделяется методу формирования признаков и, чтобы понять основные принципы их формирования, необходимо сформулировать основные требования к этим принципам, а также провести сравнительный анализ и классификацию существующих представлений.

Признак должен обладать следующими особенностями:

1. Быть информативным, то есть включать в себя данные, значимые для рассматриваемой задачи, и являться вспомогательным шагом к достоверному описанию искомых объектов.

2. Описываться в определенной форме (согласно определенному стандарту) для возможности его анализа выбранным методом сопоставления.

3. Способствовать описанию модели самого изображения.

4. Являться звеном полного описания изображения или искомого объекта, то есть описывать один из характерных параметров, учитывая специфику исследуемой области.

5. Формироваться при условии, что вычислительная сложность описания этого признака, а значит и затрачиваемое на это время, не должны превышать установленные ограничения, то есть затраты на создание признака должны компенсироваться выгодой от его применения.

В ходе выполнения исследования была проведена классификация признаковых представлений с учетом вышеизложенных особенностей. Критериями классификации были выбраны: информация об исходном

изображении и математические средства, используемые для вычисления признаков. На рисунках 1.1 и 1.2 представлены разработанные классификации, необходимо заметить, что они не претендуют на полноту изложения, а созданы с целью определения конечного метода формирования признаков в исследуемой области.

Рис. 1.1 - Классификация по информации об исходном изображении

Рис. 1.2 - Классификация по математическим средствам, используемым для вычисления

признаков

Методы распознавания, основанные на вычислении признаков, используются в условиях априорной неопределенности, но лишь в том случае, когда предложенные признаки обладают свойством инвариантности. Так как создать универсальные описания невозможно, поэтому на разработчика ложится задача формирования инвариантных признаков для конкретной области применения этих методов.

Особенностью описанного подхода является формирование большого количества признаков, охватывающих все масштабы и ориентации анализируемых изображений. Эксперименты, проводимые в ходе исследования, показали, что на изображениях размером 1800x1200 пикселей можно вычислить до 2000 стабильных признаков (приведенные данные зависят от конкретного изображения и алгоритма формирования признаков). Эта характеристика значима для методов распознавания, так как при сопоставлении объектов, обычно требуется соответствие трех признаков для верной идентификации.

Многочисленные работы исследователей [41-43] доказывают, что большое разнообразие методов анализа изображений объясняется широким кругом задач и предметных областей, для которых эти методы были разработаны. В зависимости от конкретных областей изображения различны по своему содержанию и степени изменчивости.

В некоторых задачах, где данные обладают низкой изменчивостью, изображения целесообразно анализировать структурными методами, позволяющими осуществлять быструю идентификацию объектов. Более простыми с вычислительной точки зрения являются корреляционные алгоритмы, позволяющие идентифицировать искомый объект на изображении, где присутствует несколько различных объектов, но эти алгоритмы «чувствительны к геометрическим и яркостным изменениям». Эти методы и алгоритмы обладают «низкой степенью инвариантности» к

различным факторам, следовательно, не могут быть применены в исследуемой области.

Как указывают первоисточники [44, 45]: «признаковые методы обладают наибольшей степенью инвариантности и применимы к широким предметным областям с большой изменчивостью изображений, что делает их использование в задачах распознавания изображений наиболее перспективными».

Признаковое распознавание, как было сказано ранее, требует большого объема вычислений, так как сначала необходимо проанализировать все изображение, сформировав большое количество признаков, затем провести отбор найденных признаков с целью выявления «устойчивых» и, наконец, сопоставить между собой сформированные признаки сравниваемых изображений. Так как предметом исследования является видеопоток, поступающий с борта БЛА, очевидно, что конечные изображения подвержены влиянию искажений различной природы, поэтому в качестве метода сопоставления изображений выбран признаковый метод. В связи с этим возникает дополнительная задача модификации существующих алгоритмов с целью их применения в рассматриваемой предметной области.

Рассмотрев способы представления изображений и методы их анализа необходимо провести сравнительный анализ существующих алгоритмов обработки видеоданных. Все множество существующих систем анализа видеоданных можно разделить на две большие подгруппы: системы, работающие с данными, поступающими с видеокамеры, расположенной стационарно, и поступающими с видеокамеры, расположенной на подвижном носителе.

Дальнейшая классификация может проводиться по различным признакам, каждый из которых объединят конкретные алгоритмы анализа в небольшие подгруппы, то есть по теоретическим признакам. Но такая

классификация не позволит проанализировать алгоритмы, используемые в реальных системах, так как, зачастую, они являются комбинированными и включают в себя различные методы анализа. Поэтому имеет смысл провести классификацию по областям применения и их принципиальным особенностям, тогда можно будет более точно сформулировать описание области исследования и провести анализ среди систем, решающих сходные задачи. Результат такой классификации представлен на рисунке 1.3. Стоит отметить, что приведенные результаты анализа не претендуют на полноту изложения и являются субъективной точкой зрения автора работы.

Методы н алгоритмы анализа впдеопотока

По способу расположения камеры ___„_______

Расположена стационарно Расположена на подвижном носителе

По способу

представления данных

Функциональные методы Стохастические методы Кошурные методы Стр}тегурные методы Признаковые методы

По степени автоматизации

Автоматизированные Автоматические

По организации процесса анализа

> / >

• Методы дистанционной • Методы сопровождения |

обработки оператором выбранного объекта |

• Методы постобработки • Методы поиска заранее \

оператором известного объекта |

Рис. 1.3 - Классификация существующих методов и алгоритмов анализа видеопотока

Проведенный анализ показал, что существующие методы анализа можно разделить на две группы по степени автоматизации работы самих систем: автоматизированные и автоматические. В свою очередь методы, используемые в автоматизированных системах можно разделить на два класса по организации процесса обработки: дистанционной обработки

данных и постобработки. По такому же критерию можно разделить системы, работающие в автоматическом режиме: системы сопровождения выбранного объекта и системы поиска заранее известного объекта.

Для понимания специфики существующих систем необходимо сформулировать основные принципы их работы и выявить преимущества и недостатки, которыми они обладают.

1.3 Существующие методы обработки видеопотока, поступающего со стационарно расположенной камеры

Определение и отслеживание подвижных объектов в видеопотоке это сложная задача, решение которой принято разделять на отдельные этапы. Самым распространенным подходом, объединяющим многие методы, является выделение переднего плана от подстилающей поверхности. Для этого используют так называемые «методы вычитания фона» [46] — это методы, формирующие некоторую модель заднего плана сцены, а затем проверяющие все пиксели рассматриваемого кадра видеопотока на принадлежность к нему (заднему плану). Таким образом, все пиксели рассматриваемого кадра делятся на две группы фон и объекты. Далее, происходит распознавание объекта или его отслеживание. Методы данного типа различаются способами формирования моделей заднего плана и способами сравнения пикселей со сформированной моделью [47]. Рассмотрим идею, лежащую в основе таких методов, и опишем ряд их особенностей.

В качестве начальных данных выступает видеопоследовательность, полученная с камеры, расположенной стационарно. Предположим, что в первых п кадрах в сцене нет движения, а, начиная с п+1 кадра, появляются подвижные объекты. Значит, возможно, сформировать некоторое

изображение или модель, которая будет описывать задний план, зафиксированный на первых п кадрах.

Помимо этого, стоит отметить, что бывают ситуации, когда задний фон является динамической сценой, но такое движение не является объектом интереса. В этом случае модель должна учитывать возможную динамику заднего плана.

Межкадровая разность [48]

Определение межкадровой разности является основным методом предварительного обнаружения объектов движения. Для различных цветовых моделей алгоритмы могут выглядеть по-разному, но их суть сводится к определению попиксельной разности между сравниваемыми изображениями с последующей пороговой фильтрацией, в процессе которой определяется превосходит вычисленная разность установленное пороговое значение или нет. Если превосходит, то данные пиксель относится к подвижному объекту. Таким образом, устанавливаются все «подвижные» пиксели, формирующие сам подвижный объект. Как правило, сформированная маска представляет собой бинарное изображение, нули которого располагаются в точках фона, а единицы в точках, принадлежащих к подвижным объектам.

В реальных детекторах [49] присутствуют дополнительные этапы фильтрации, направленные на определение ложных сигналов, полученных в ходе вычисления маски. Еще одним параметром, который различает существующие детекторы, служит способ выбора сравниваемых кадров, как правило, это соседние кадры, но возможен анализ кадров, взятых через один или два. Увеличение интервала между сравниваемыми кадрами приводит к увеличению чувствительности детектора к малоподвижным объектам.

Работу вышеописанного метода можно рассмотреть на примере анализа данных, поступающих с камеры, расположенной над проезжей частью одной из дорог Москвы. На рисунке 1.4 представлен кадр анализируемого видеопотока. На рисунках 1.5 и 1.6 изображены результаты вычисления разности соседних кадров и кадров, взятых через один.

Рис. 1.4 - Исходный кадр

*

Рис. 1.5- Межкадровая разность соседних кадров

возможным фиксация не только обычных подвижных объектов, но и малоподвижных, что играет существенную роль в определении результирующего качества детектора. Такие методы принято называть методами сегментирования фона [51, 52].

Действия, выполняемые при реализации метода сегментирования фона, абсолютно повторяют работу метода межкадровых разностей, с той лишь разницей, что разность вычисляется между базовым кадром и рассматриваемым. Главной сложностью данного метода является способ составления базового кадра, так как он должен обладать следующими свойствами:

— В случае выбора базового кадра из числа кадров видепотока он должен иметь минимально возможную разность по времени фиксации;

— В случае формирования базового кадра, он не должен содержать в себе подвижные объекты или подвижный фон, так как это может привести к ошибкам в работе детектора;

— Требуется использовать алгоритмы предварительной фильтрации.

Принято выделять два основных способа формирования базового кадра [53]. Один способ формирования учитывает все кадры видеопотока, а, значит, относится к методам постобработки. В таком случае базовый кадр учитывает сигналы, исходящие от подвижных объектов, но, как правило, этот факт не оказывает значительного влияния и проблема решается уточнением порогового значения. Преимуществом такого способа формирования базового кадра, безусловно, является его простота, но, одновременно с этим, появляется необходимость использовать различные методы шумоподавления (зависят от условий съемки).

Другой подход заключается в выборе тех областей анализируемых кадров, в которых не фиксируется движение, то есть для формирования базового кадра используются результаты обработки предыдущих кадров.

Области, в которых было обнаружено движение, не учитываются при формировании или корректировке базового кадра. Такой способ незначительно усложняет алгоритм определения движения, но делает его более надежным.

Иногда, в качестве базового кадра выбирают кадр, на котором не было зафиксировано движение, и, в случае его обнаружения, сопоставление производится с ним, а когда движение прекращается базовый кадр переназначается. Такой подход почти не имеет применения, так как очень специфичен и не может быть применен в большинстве реальных систем детектирования движения.

Алгоритмы, основанные на вероятностных моделях

В основе алгоритмов, основанных на вероятностных моделях, лежит предположение, что анализируемые изображения, а точнее сцена, изображенная на них, могут быть описаны с помощью случайной величины [54]. Наиболее распространенным на практике является случай, когда пиксели, принадлежащие к фону, формируются с помощью одномерной нормально распределенной случайной величины Ы(х,т,82), где х — значение

яркости пикселя; ш - математическое ожидание; 82 - дисперсия.

В этом случае, выполняется анализ начальных кадров, для каждого из которых производится оценка характеристик случайной величины: ш и 52. Этот процесс является своего рода обучением. Затем, выполняется анализ всех последующих кадров, каждый пиксель которых сопоставляется с полученной моделью.

Существует несколько модификаций такого метода [55], но все они имеют основные шаги: формирование модели, ее обучение по анализу начальных кадров, анализ рассматриваемых кадров на пиксельном уровне.

Обычно, используют выборочное среднее и среднее квадратичное

1 "

отклонение значений для оценки параметров модели ш и 82: ш = — Ух. • 52 и

п ы

1 ■ 2

52 =-У (х. -ш) где х,..хп- значения пикселя по начальным кадрам. А

п -1 ¡=1

анализ текущих значений пикселей происходит путем их сравнения с пороговым значением.

Пусть Ху - значение яркости рассматриваемого пикселя, имеющего

номера строки и столбца I и соответственно. При выполнении неравенства

считается, принадлежащим подвижному объекту.

Значение порога Ь влияет на чувствительность алгоритма и выбирается следующим образом. Пусть число а е(0,1), тогда решается некоторое уравнение:

где \ — ошибка, имеющая нормальный закон распределения. Тогда величина а это вероятность того, что разность, вызванная, шумовой составляющей, попадет в h-окрестность. На практике используют h = 3 (т.н. Mahalanobis distance), которому соответствует значение а » 0.98.

Вышеуказанный алгоритм позволяет учитывать влияние шумовой составляющей, так как значение порога адаптивно изменяется в соответствии с анализируемым изображением. Таким образом, подводя итог, можно отметить, что подобные алгоритмы формируют некоторую модель сцены, используя нормальные распределения:

ii<h, рассматриваемый пиксель относится к фону, в противном случае,

(1.9)

р=1

(1.10)

К(х,т,52)=_=1=—ехр л/2л; -5

_(х-т)2

282

(1.11)

Все слагаемые суммы представляют собой процессы, протекающие в каждом пикселе изображения, и характеризуются математическим ожиданием, дисперсией и коэффициентом лур - весовым коэффициентом.

Параметр к - число гауссиан (на практике используют от 3 до 5, в зависимости от мощности вычислителя).

Подобные алгоритмы способны адаптироваться к повторяющимся незначительным движениям, к таким природным явлениям, как дождь или снег, вносящим изменения в формируемые изображения сцены.

1.4 Существующие методы обработки видеопотока, поступающего с камеры, расположенной на подвижном носителе

В случае движения камеры в момент съемки вся сцена постоянно изменяется, поэтому невозможно применить вышеуказанные методы для анализа видеопоследовательности с целью обнаружения подвижных объектов на ней. При постоянном движении самой камеры единственным источником информации могут быть лишь соседние кадры, так как они содержат в себе перекрывающую часть сцены и, анализируя ее, можно получить какие-либо результаты.

Анализ кадров значительно осложняется появлением «внешних» шумов, вызванные спецификой съемки. Как было отмечено ранее, в результирующую сцену могут вносить значительные изменения условия освещенности, погодные явления, вибрации корпуса носителя, на котором расположена камера и т.д., поэтому необходимо использовать более сложные алгоритмы анализа, нечувствительные к данным воздействиям или способные их учитывать.

Корреляционные алгоритмы [56]

Построение функции взаимной корреляции изображений применяется с целью определения меры их схожести. Такая функция, по своей сути, имеет единственный максимум лишь в случае сопоставления пары одинаковых изображений. На практике применяют нормализованную функцию взаимной корреляции. Ниже будут описаны алгоритмы, основанные на формировании и анализе таких функций.

Одним из способов нахождения соответствия между изображениями является выделение небольшого прямоугольника на одном изображении и поиск подобного прямоугольника на другом. Для одного прямоугольника составляется несколько функций корреляции с другим изображением и из них выбирается наибольшее. Затем, это значение сравнивают с порогом, который определяет некую меру сходства, если текущее значение превосходит пороговое, то считается, что найдено соответствие, в противном случае поиск продолжается. Изменение значения порога подбирается таким образом, чтобы достичь заданного качества при определенном соотношении количества ложных ошибок к количеству не обнаружения вообще.

Пусть сопоставляемый фрагмент А, выделенный на первом кадре, и заданный матрицей ио(пхп), сравнивается с фрагментом В второго кадра видеопотока в «зоне поиска» О размером ЬхЬ, Ь = п + т. Перекрытие

Л

фрагментов задается величиной Ь дискретной решетки , на которой заданы наблюдаемые переменные {и0(х), х = (х,у)} на А или {и(х)} на В. При выполнении поиска скользящим окном, то есть сдвигая текущий прямоугольник на одну позицию, определяется «мера сходства» между фрагментом А и получаемыми фрагментами В. В этом случае выполняется поиск наиболее похожей пары фрагментов на двух рассматриваемых изображениях.

При нахождении изображений одного и того же фрагмента сцены (фона или объекта) должны выполняться условия:

U0 (х,у) = (а • U(x + к, у +1) + Ь) - rect(—,—) + е(х,у) (1.12)

п п

где а и b - параметры контраста и средней освещенности; k, 1 - переменные, обозначающие сдвиг на рассматриваемом изображении; е(х,у) - некоторое шумовое воздействие;

rect(—,—) = «{ п п

1, х<п,у<п;

J (1.13)

О, иначе.

Сделав предположение, что средняя освещенность сцены не изменяется от кадра к кадру, можно перейти к другой форме записи:

u(x,y) = u(x,y)-u, u = ~^2>(x,y); (1.14)

Li х,уеП

Похожие диссертационные работы по специальности «Информационно-измерительные и управляющие системы (по отраслям)», 05.11.16 шифр ВАК

Заключение диссертации по теме «Информационно-измерительные и управляющие системы (по отраслям)», Казбеков, Борис Валентинович

Основные результаты, полученные в диссертации, состоят в следующем:

1. На основании анализа существующих теоретических и практических разработок в области обработки изображений были сформулированы цель диссертационного исследования и задачи, необходимые для ее достижения.

2. Обоснована возможность использования комплекса частных алгоритмов обработки изображений, без разработки обобщенной математической модели, для решения поставленных задач диссертационного исследования.

3. Разработан метод определения ПНО в видеопотоке, получаемом с бортовой видеокамеры БЛА, основанный на анализе точечных особенностей, получаемых модифицированным алгоритмом SIFT. Предложенный метод, также использует разработанную методику определения вектора межкадрового сдвига.

4. Модифицирован алгоритм идентификации ПНО, основанный на сопоставлении рассматриваемого изображения с эталонами. Предложены методы определения некоторых характеристик анализируемых изображений, позволяющих применять данный алгоритм в режиме реального времени. Этими характеристиками являются ориентация ПНО относительно изображения, диапазон масштабов, необходимых для сопоставления, и области поиска, соответствующие выставленным стробам.

5. Предложена функция, отражающая степень сходства сравниваемых дескрипторов S(d',d"), учитывающая в отдельности различия между соответствующими координатами дескрипторов. Экспериментально определены пороговые значения отклонения длины 8L и угла 5а векторов, составляющие 15% и 5% от средних значений длины и углов векторного поля соответствий, необходимые для определения результирующего значения вектора межкадрового сдвига.

6. Получена зависимость числа ошибок I и II рода от значения относительного порога изменения яркости А на этапе формирования маски движения. Экспериментально установлено значение порога А=0,15, при котором выполняется установленное требование к отношению числа ошибок I и II рода. Полученная зависимость позволяет быстро подбирать пороговое значение А в зависимости от предъявляемых условий функционирования системы.

7. Сформулированы требования к бортовому вычислителю и съемочной аппаратуре, необходимые для функционирования разработанной автоматической системы идентификации ПНО с борта БЛА.

8. Полученные результаты обработки реальных данных позволили определить значения вероятностей верного определения ПНО и появления ошибок I и II рода. В среднем, вероятность верного обнаружения ПНО при его попадании в кадр равна 0,9831, а вероятность появления ошибок I и II рода - 0,0152 и 0,0033 соответственно. Вероятность верной идентификации объекта, в случае его верного обнаружения, равна 0,9534. Также полученные результаты обработки реальных данных показали полностью корректную работу разработанного экспериментального ПО и подтвердили возможность функционирования разработанной автоматической системы идентификации ПНО в указанных условиях в режиме реального времени.

9. Разработан комплексный алгоритм обработки изображений видимого и ИК диапазонов, основанный на анализе точечных особенностей изображений. Применение разработанного комплексного алгоритма возможно при наличии соответствующей съемочной аппаратуры на борту БЛА, синхронизированной по времени.

Анализ обработки данных с использованием вышеуказанного комплексного алгоритма, подтвердил работоспособность разработанного алгоритма. В результате проведенных экспериментов были получены значения вероятностей верного определения ПНО — 0,9957, появления ошибки I рода - 0,0107 и появления ошибки II рода - 0,003. Данные результаты позволяют сделать вывод об улучшении качества определения ПНО при использовании комплексного алгоритма анализа. Недостатком разработанного ПО является превышение длительности обработки видеофрагментов их продолжительности. Это превышение, в среднем, составляет 5%.

Заключение

Список литературы диссертационного исследования кандидат технических наук Казбеков, Борис Валентинович, 2013 год

Список использованной литературы

1. Lutsiv V., Malyshev I., Potapov A. Hierarchical structural matching algorithms for registration of aerospace images // Proc. SPIE. 2003. V. 5238. P. 164-175.

2. B.H. Васильев, И.П. Гуров, A.C. Потапов Математические методы и алгоритмическое обеспечение анализа и распознавания изображений в информационно-телекоммуникационных системах, СПбГУ ИТМО.

3. Popescu A., Moellic Р.-А., Millet Ch. SemRetriev: an ontology driven image retrieval system. // Proc. 6th ACM Int. conf. on Image and Video Retrieval. 2007. P. 113-116.

4. Потапов A.C. Распознавание образов и машинное восприятие: общий подход на основе принципа минимальной длины описания: С-Пб, Политехника. 2007. 548 с.

5. Lutsiv V.R., Malyshev I.A., Pepelka V., Potapov A.S. Target independent algorithms for description and structural matching of aerospace photographs // Proc. SPIE. 2002. V. 4741. P. 351-362.

6. Thomas P. and Vernon D. Image registration by differential evolution // Proc. Irish Machine Vision and Image Processing Conference. 1997. P. 221-225.

7. Потапов A.C. Исследование представлений изображений на основе принципа репрезентационной длины описания // Изв. вузов. Приборостроение. 2008. Т. 51. № 7. С. 3-7.

8. Lei B.J., Hendriks Е.А., Reinders M.J.T. On feature extraction from images // Technical Report, Deliverable 2.1.1.2.A+B, MCCWS project, Information and Communication Theory Group. TU Delft. 1999. 57 p.

9. Yang C.H.T., Lai S.H., Chang L.W. Hybrid image matching combining Hausdorff distance with normalized gradient matching // Pattern Recognition. 2007. V. 40. № 4. P. 1173-1181.

10. Прэтт У. Цифровая обработка изображений: М.. Мир. 1982. Кн. 2. 480 с.

11. Goecke R., Asthana A., Pettersson N., Petersson L. Visual vehicle egomotion estimation using the Fourier-Mellin transform // IEEE Trans. Intelligent Vehicles Symposium. 2007. P. 450-455.

36. Lowe D. Object recognition from local scale-invariant features // Proc. Int. Conf. on Computer Vision. 1999. P. 1150-1157.

37. Petrou M., Kadyrov A. Affine invariant features from the trace transform // IEEE Trans, on Pattern Analysis and Machine Intelligence. 2004. V. 26. № 1. P. 30-44.

38. Baumberg A. Reliable feature matching across widely separated views // Conf. on Computer Vision and Pattern Recognition. 2000. P. 774-781.

39. Zavorin I., LeMoigne J. Use of multiresolution wavelet feature pyramids for automatic registration of multisensor imagery // IEEE Trans. Image Processing. 2005. V. 14. № 6. P. 770-782.

40. Efrat A., Gotsman C. Subpixel image registration using circular fiducials // Int. J. Comp. Geom. and Appl. 1994. V. 4, No. 4. P. 403-422.

41. Rao C., Guo Y., Sawhney H.S., Kumar R. A heterogeneous feature-based image alignment method // Int. Conf. on Pattern Recognition, ICVR06. 2006. P. 345-350.

42. Lutsiv V., Malyshev I., Potapov A. Hierarchical structural matching algorithms for registration of aerospace images // Proc. SPIE. 2003. V. 5238. P. 164-175.

43. Lutsiv V., Potapov A., Novikova T., Lapina N. Hierarchical 3D structural matching in the aerospace photographs and indoor scenes // Proc. SPIE. 2005. V. 5807. P. 455-466.

44. Maisinger K., Hobson M.P., Lasenby A.N. Maximum-entropy image reconstruction using wavelets // Monthly Notices of the Royal Astronomical Society. 2004. V. 347. № 1. P. 339-354.

45. Keysers D., Och F.J., Ney H. Maximum entropy and Gaussian models for image object recognition // Pattern Recognition, 24th DAGM Symposium, Zurich, Switzerland, LNCS 2449. 2002. P. 498-506.

46. Solomonoff R.J. The discovery of algorithmic probability // J. of Computer and System Sciences. 1997. V. 55. № 1. P. 73-88.

47. Liedtke C.-E., Buckner J., Grau O., Growe S., Tonjes R. AIDA: a system for the knowledge based interpretation of remote sensing data //3d Airborne Remote Sensing Conference and Exhibition. 1997. V. 2. P. 313-320.

48. Дуда Р.,Харт П. Распознавание образов и анализ сцен: М., Мир. 1976. 511 с.

49. Iqbal Q. and Aggarwal J.K. Lower-level and high-level approaches to content-based image retrieval // Proc. IEEE South West Symposium on Image Analysis and Interpretation. 2000. P. 197-201.

50. Kanatani K. and Ohta N. Automatic detection of circular objects by ellipse growing // Proc. SSII2002. 2002. P. 355-360.

51. Гаганов В., Конушин А. Сегментация движущихся объектов в видеопотоке. Компьютерная графика и мультимедиа. Выпуск №2(3)/2004.

52. Baker S. Design and Evaluation of Feature Detectors: PhD thesis. Columbia University. 1998. 167 p.

53. Zhu S.C., Wu Y., Mumford D. Minimax entropy principle and its application to texture modeling //Neural Computation. 1997. № 9. P. 1627-1660.

54. Kopparapu S.K., Desai U.B. Bayesian approach to image interpretation // The Springer International Series in Engineering and Computer Science. 2001. V. 616. 127 p.

55. Tu Z.W. and Zhu S.C. Image Segmentation by data driven Markov chain Monte Carlo // IEEE Trans. PAMI. 2002. V. 24. No. 5. P. 657-673.

56. Essannouni L., Ibn-Elhaj E., Aboutajdine D. Fast cross-spectral image registration using new robust correlation // J. of Real-Time Image Processing. 2006. V. 1. № 2. P. 123-129.

57. Вапник B.H., Червоненкис А. Теория распознавания образов: М., Наука. 1974.415 с.

58. Solomonoff RJ. A formal theory of inductive inference, pari and part 2 // Information and Control. 1964. V. 7. P. 1-22, 224-254.

59. Wang F., Vemuri B. Non-rigid multi-modal image registration using cross-cumulative residual entropy // Int. J. Computer Vision. 2007. V. 74. № 2. P. 201-215.

60. Mumford D. and Gidas B. Stochastic models for generic images // Quaterly of Applied Mathematics. 2001. Vol. 59. P. 85-111.

61. Ma B. Parametric and nonparametric approaches for multisensor data fusion: PhD thesis, University of Michigan. 2001. 196 p.

62. Lowe, D.G..2004. Distinctive Image Features from Scale-Invariant Keypoints. January 5,2004.

63. Chanda В., Kundu M.K., Padmaja Y.V. A multi-scale morphologic edge detector//Pattern Recognition. 1998. V. 31. No. 10. P. 1469-1478.

64. Mumford D., Shah J. Optimal approximation by piecewise smooth functions // Comm. Pure and Appl. Math. 1989. V. 42. P. 577-685.

65. Lindeberg Т., Li M.-X. Segmentation and classification of edges using minimum description length approximation and complementary junction cues // Computer Vision and Image Understanding. 1997. V. 67. № 1. P. 88-98.

66. Rissanen J J. Modeling by the shortest data description // Automatica-J.IFAC. 1978. V. 14. P. 465-471.

67. Cappellini V., Fini S., Harrigan E., Mecocci A. Circular shape detection in remote sensing multispectral images. In: Visual Form Analysis and Recognition, Arcelli C., Cordelia L.P., Sanniti di Baja G., eds. New York, Plenum Press. 1992. P. 119-126.

68. McLaughlin R.A. Randomized Hough transform: improved ellipse detection with comparison // Pattern Recognition Letters. 1998. V. 19. P. 299-305.

69. Журавлев Ю. И, Об алгебраическом подходе к решению задач распознавания или классификации, Проблемы кибернетики, Вып. 33. М.: Наука, 1978. С. 5-68.

70. Хелстром К. Статистическая теория обнаружения сигналов.: пер. с англ. -М: Издательство иностранной литературы, 1963.- 320с.

71. Рабиндер Л., Гоулд Б. Теория и применение цифровой обработки сигнала. Пер. с анг. М.: Мир, 1978. - 379с.

72. Парамонов С.В. Метод и вычислительное устройство автоматического обнаружения топологических аномалий на земной поверхности по космическим видеоизображениям: Дис. ... канд. техн. наук. Москва. 2001.- 115 с.

73. Пиотровский Я. Теория измерений для инженеров. Пер. с польск. М.: Мир, 1989.-388C.

74. Mansouri A.-R. and Konrad J. Motion segmentation with level sets // Proc. IEEE Int. Conf. Image Processing. 1999. V. II. P. 126-130.

75. Maybank S.J., Sturm P.F. Minimum description length and the inference of scene structure from images // IEE Colloquium on Applied Statistical Pattern Recognition. 1999. P. 9-16.

76. Galland F., Bertaux N., Refregier Ph. Multi-component image segmentation in homogeneous regions based on description length minimization: Application to speckle, Poisson and Bernoulli noise // Pattern Recognition. 2005. V. 38. Iss. 11. P. 1926-1936.

77. Gao Q., Li M., Vitanyi P.M.B. Applying MDL to learning best model granularity //Artificial Intelligence. 2000. V. 121. P. 1-29.

78. Ward A., Hamarneh Gh. Statistical shape modeling using MDL incorporating shape, appearance, and expert knowledge // Lecture Notes in Computer Science, Medical Image Computing and Computer-Assisted Intervention (MICCAI). 2007. P. 278-285.

79. Davies R.H., Twining C.J., Cootes T.F., Waterton J.C., Taylor C.J. A minimum description length approach to statistical shape modeling // IEEE Trans. Medical Imaging. 2002. V. 21. № 5. P. 525-537.

80. Yvan G. et al. Self-consistency and MDL: a paradigm for evaluating point-correspondence algorithms, and its application to detecting changes in surface elevation // Int. J. of Computer Vision. 2003. V. 51. № 1. p. 63-83.

81. Parida L., Geiger D., and Hummel R.. Junctions: detection, classification, and reconstruction // IEEE Trans. Pattern Analysis and Machine Intelligence. 1998. V. 20. No. 7. P. 687-698.

82. Розенфельд А., Дейвис JI.C. Сегментация и модели изображения // ТИИЭР. 1979. Т. 67. № 5. С. 71-81.

83. Shen, L., Bai, L.: A review on Gabor wavelets for face recognition // Pattern Analysis and Applications. 2006. V. 9. P. 273-292.

84. Moravec H.P. Visual mapping by a robot rover // Proc. 6th Int. Joint Conf. on Artificial Intelligence. 1979. P. 598-600.

85. Jerebko A., Barabanov N., Luciv V., Allinson N. Neural net based image matching // Proc. SPIE. 2000. V. 3962. P. 128-137.

86. Мельников Д.А. Информационные процессы в компьютерных сетях. -М.: Кудиц-Образ, 1999. - 256с.

87. Фомин А.Ф., Новосёлов О.Н., Плющев А.В. Отбраковка аномальных результатов измерений. М.: Энергоатомиздат,1985. - 244с.

88. Гонсалес П., Вудс Р. Цифровая обработка изображений. / М.: Техносфера, 2005

89. Kreutz М., Volpel В., and JanBen Н. Scale-invariant image recognition based on higher-order autocorrelation features // Pattern Recognition. 1996. V.29. No.l.P. 19-26.

90. Gander W., Golub G.H., and Strebel R. Fitting of circles and ellipses - least squares solution // BIT. 1994. V. 34. P. 556-577.

91. Fitzgibbon A., Pilu M., Fisher К Direct least-square fitting of Ellipses // IEEE Trans. PAMI. 1999. V. 21. No. 5. P. 476-480.

92. Linying S., Sharp В., Chibelushi C. Knowledge-based image understanding: a rule-based production system for X-ray segmentation // Int. Conf. on Enterprise Information Systems (ICEIS). 2002. P. 530-533.

93. Lanterman A. Minimum Description Length understanding of infrared scenes // Proc. SPIE. 1998. V. 3371. P. 375-386.

94. Li M., Vitanyi P.M.B. Inductive reasoning and Kolmogorov complexity // Proc. 4th IEEE Structure in Complexity Theory Conf. 1989. P. 165-185.

95. Vovk V., Gammerman A. Complexity approximation principle // The Computer Journal. 1999. V. 42. № 4. P. 318-322.

96. Luo Q., KJioshgoftaar T.M. Unsupervised multiscale color image segmentation based on MDL principle // IEEE Trans, on Image Processing. 2006. V. 15. № 9. P. 2755-2761.

97. Lee T.C.M. A minimum description length based image segmentation procedure, and its comparison with a cross-validation based segmentation procedure //J. American Statistical Association. 2000. V. 95. P. 259-270.

98. Cazorla M.A. et al. Bayesian models for finding and grouping junctions // Energy Minimization Methods in Computer Vision and Pattern Recognition. 1999. P. 70-82.

99. Li M., Gao Q. and Vitanyi P.M.B. Recognizing on-line handwritten characters using MDL // Proc. IEEE Information Theory Workshop. 1993. P. 24-25.

100. Maybank S.J. and Sturm P.F. MDL, collineations and the fundamental matrix // Proc. 10th British Machine Vision Conference. 1999. P. 53-62.

101. Разин И.В., Тетерин B.B. Математическая модель для экспресс-оценки степени сходства изображений // Оптический журнал. 2001. № 11. С. 3337.

102. Павлидис Т. Иерархические методы в структурном распознавании образов // ТИИЭР. 1979. Т. 67. № 5. С. 39-49.

103. Feldman J. Perceptual grouping by selection of a logically minimal model // Int. J. Computer Vision. 2003. V. 55. №1.P. 5-25.

104. Потапов A.C. Теоретико-информационный подход к введению обратных связей в многоуровневых системах компьютерного зрения // Оптический журнал. Т. 74. № 10.2007. С. 59-65.

105. Потапов А.С., Малышев И.А., Луцив В.Р. Совмещение аэрокосмических изображений с субпиксельной точностью методом локальной корреляции // Оптический журнал. 2004. Т. 71. № 5. С. 31-36.

106. Pilu М., Fisher R.B. Part segmentation from 2D edge images by the MDL criterion // Image and Vision Computing. 1997. V. 15. № 8. P. 563-573.

107. Zhu S.C., Wu Y.N., Mumford D.B. Filters, random fields, and maximum entropy (FRAME): towards a unified theory for texture modeling // Int'l J. Computer Vision. 1998. V. 27. No. 2. P. 1-20.

108. Casasent D. and Psaltis D. Deformation-invariant, space-variant optical pattern recognition // Progress in Optics. 1978. V. 16. P. 291-365.

109. Lagunovsky D. and Ablameyko S. Straight-line-primitive extraction in grey-scale object recognition // Pattern Recog. Letters. 1999. V. 20. P. 1005-1014.

110. Lowe, D.G. 2001. Local feature view clustering for 3D object recognition. IEEE Conference on Computer Vision and Pattern Recognition, Kauai, Hawaii, pp. 682-688.

111. Lillholm M., Nielsen M., Griffin L.D. Feature-Base Image Analysis // Int. J. Computer Vision. 2003. V. 52. No. 2/3. P. 73-95.

112. Pinz A., Prantl M., Ganster H. A robust affine matching algorithm using an exponentially decreasing distance function // J. of Universal Computer Science. 1995. V. 1. No. 8. P. 614-631.

113. Zhao W., Chellappa R., Phillips P.J., Rosenfeld A. Face recognition: a literature survey //ACM Computing Surveys. 2003. V. 35. P. 399-458.

114. Olson C.F., Huttenlocher D. Automated target recognition by matching oriented edge pixels // IEEE Trans, on Image processing. 1997. V. 6. No 1. P. 103-113.

115. Marr D. and Hildreth E. Theory of edge detection // Proc. R. Soc. Lond. B207. 1980. P. 187-217.

116. Helmer, S.&Lowe,D.G..Object Class Recognition with Many Local Features.

117. Gordon, I.&Lowe,D.G..Scene Modelling, Recognition and Tracking with Invariant image Features.

118. Mikolajczyk, K. & Schmid, C. 2001. Indexing based on scale invariant interest points. International Conference on Computer Vision, Vancouver, Canada (July 2001), pp. 525-531.

119. Mikolajczyk, K. & Schmid, C. 2002. An Affine Invariant Interest Point Detector. ECCV.

120. Konishi S., Yuille A.L., Coughlan J.M., Zhu S.Ch. Statistical edge detection: learning and evaluating edge cues // IEEE Trans. Pattern Analysis and Machine Intelligence. 2003. V. 25. № 1. P. 57-74.

121. Колмогоров A.H. Комбинаторные основания теории информации и исчисления вероятностей // УМН. 1983. Т. 38. Вып. 4. С. 27-36.

122. Li М., Vitanyi Р.М.В. Philosophical issues in Kolmogorov complexity (invited lecture) // Proc. on Automata, Languages and Programming (ICALP •92). 1992. V. 623. P. 1-15.

123. Абду И.Э., Прэтт У.К. Количественный расчет детекторов контуров, основанных на подчеркивании перепадов яркости с последующим пороговым ограничением // ТИИЭР. 1979. Т. 67. № 5. С. 59-70.

124. Park R.-H., Yoon K.S., Choi W.Y. Eight-point discrete Hartley transform as an edge operator and its interpretation in the frequency domain // Pattern Recognition Letters. 1998. V. 19. P. 569-574.

125. Smith S.M. and Brady J.M. SUSAN - a new approach to low level image processing // Int. Journal of Computer Vision. 1997. V. 23. No. 1. P. 45-78.

126. Thevenaz P. et al. A pyramid approach to subpixel registration based on intensity // IEEE Trans. Image Processing. 1998. V. 7. No. 1. P. 27-41.

127. Noronha S., Nevatia R. Detection and modeling of buildings from multiple aerial images // IEEE Trans. PAMI. 2001. V. 23. No. 5. P. 501-518.

128. Growe S. Knowledge based interpretation of multisensor and multitemporal remote sensing images // IAPRS. 1999. V. 32. Part 7-4-3 W6. P. 130-138.

129. Olson C.F. Improving the generalized Hough transform through imperfect grouping // Image and Vision Computing. 1998. V. 16. P. 627-634.

Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.