Выделение объектов на изображениях радиотехнических систем наблюдения с использованием прямолинейных сегментов границ тема диссертации и автореферата по ВАК РФ 05.12.04, кандидат технических наук Онешко, Александр Викторович

  • Онешко, Александр Викторович
  • кандидат технических науккандидат технических наук
  • 2013, Санкт-Петербург
  • Специальность ВАК РФ05.12.04
  • Количество страниц 112
Онешко, Александр Викторович. Выделение объектов на изображениях радиотехнических систем наблюдения с использованием прямолинейных сегментов границ: дис. кандидат технических наук: 05.12.04 - Радиотехника, в том числе системы и устройства телевидения. Санкт-Петербург. 2013. 112 с.

Оглавление диссертации кандидат технических наук Онешко, Александр Викторович

Содержание

ВВЕДЕНИЕ

ГЛАВА 1. Применение методов и алгоритмов выделения объектов на изображениях, и распознавания изображений в радиотехнических системах

1.1. Постановка задачи диссертационного исследования

1.2. Структура радиотехнической системы наблюдения

1.3. Типы датчиков используемых в радиотехнических системах наблюдения

1.4. Требования к алгоритмам машинного зрения для применения в радиотехнических системах

1.5. Вывод к главе 1

ГЛАВА 2. Способы описания изображений

2.1. Классификация моделей изображений

2.1.1. Понятие модели изображения

2.1.2. Концепция порождаемых моделей при зрительном восприятии образов человеком

2.1.3. Классификация моделей, по методам представления и обработки изображений

2.1.4. Классификация моделей по методам дескриптивного подхода к анализу и распознаванию изображений

2.2. Признаковая модель в задачах распознавания и анализа изображений

2.2.1. Признаковое описание изображений

2.2.2. Определение понятия «признак изображения»

2.2.3. Современные методы выделения признаков на изображениях

2.3. Прямолинейные сегменты, как важный признак объектов на

изображениях

2.3.1. Состояние проблемы выделения и группирования линейных признаков на изображениях

2.3.2. Выделение прямолинейных сегментов границ с использованием детектора Кенни и преобразования Хафа для прямых линий

2.3.3. Выделение прямолинейных сегментов границ с применением алгоритма основанного на методе объединения пикселей (детектор Рендела)

Вывод к главе 2

ГЛАВА 3. Описание и выделение объектов на изображениях с использованием прямолинейных сегментов границ

3.1. Метод выделения прямолинейных сегментов границ на цифровых изображениях

3.1.1. Постановка задачи

3.1.2. Описание метода и алгоритмической реализации

3.2. Метод группирования линий в структуры

3.2.1. Постановка задачи

3.2.2. Описание метода и алгоритмической реализации

3.3. Вывод к главе 3

ГЛАВА 4. Исследование качества выделения объектов на изображениях с применением предложенных методов

4.1. Оценка качества работы детектора Кенни совместно с преобразованием Хафа, детектора Рендела и предложенного метода выделения прямолинейных сегментов границ, применительно к задаче выделения объектов на тестовом изображении

4.2. Исследование метода описания объектов с использованием линий на тестовом изображении

4.3. Исследование методов выделения прямолинейных сегментов границ и описания объектов на изображениях с использованием линий на реальных изображениях, полученных от радиотехнических систем наблюдения

ЗАКЛЮЧЕНИЕ

ЛИТЕРАТУРА

ПРИЛОЖЕНИЕ 1. Программная реализация алгоритма оценивания координат прямолинейных сегментов границ на изображениях в среде MATLAB

ПРИЛОЖЕНИЕ 2. Свидетельство о регистрации программы для ЭВМ

ПРИЛОЖЕНИЕ 3. Акт о внедрении

Рекомендованный список диссертаций по специальности «Радиотехника, в том числе системы и устройства телевидения», 05.12.04 шифр ВАК

Введение диссертации (часть автореферата) на тему «Выделение объектов на изображениях радиотехнических систем наблюдения с использованием прямолинейных сегментов границ»

ВВЕДЕНИЕ

Актуальность темы исследования. Выделение и распознавание объектов на изображениях представляет одну из центральных проблем компьютерного видения. Такая проблема решается при слежении за объектами, восстановлении, индексации, сравнении и распознавании различных изображений. Ключевым моментом при выделении и распознавании объектов является описание различных категорий объектов. Для этого требуется набор надежных и повторяемых признаков (дескрипторов), которые получаются из модели объекта либо из тестовых изображений. Локальные признаки и дескрипторы весьма полезны для компактного представления изображений при их сравнении и распознавании.

Различают три уровня дескрипторов. Дескрипторы нижнего уровня могут быть трех типов: основанные на точках изображения, основанные на линиях и основанные на областях. Линии, соединения линий и углы являются наиболее важными геометрическими признаками для последующего анализа. Такие признаки называются геометрическими примитивами. Дескрипторы промежуточного или среднего уровня получаются путем группирования геометрических примитивов с учетом набора ограничений, вытекающих из свойств объектов, интересных с точки зрения восприятия. Дескрипторы верхнего уровня вытекают из сравнительного анализа полученных структур и могут содержать информацию, достаточную для интерпретации, понимания и сравнения рассматриваемого изображения с другим изображением или шаблоном.

Существуют два класса методов для выделения признаков. Первые основаны на интенсивности и часто не обеспечивают требуемой надежности воспроизведения. Вторые используют геометрические свойства, что влечет более сложную обработку, однако позволяют сравнивать изображения от различных источников. При сравнении изображений между собой или с эталоном можно выделить три ступени обработки. На первой «детектор

признаков» формирует набор точек и «областей интереса». Вторая ступень содержит описание выделенных областей с помощью векторов параметров. Сравнение полученных векторов (признаков) осуществляется на третьей ступени с использованием соответствующей метрики, данный признак на изображении ассоциируется с одним или несколькими признаками на других изображениях. В результате идентифицируются объекты с близкими метриками.

Существует большое количество объектов, отличительными признаками которых являются прямолинейные границы (прямолинейные перепады яркости) и геометрические соотношения между ними. Практически важные задачи включают обнаружение и классификацию искусственных объектов, таких как здания, сооружения, дороги, мосты; оценивание использования земных угодий при обработке земли; выделение рек и водоемов. Описанием прямолинейных границ являются прямые линии. Прямолинейные сегменты границ играют большую роль, поскольку почти все контуры локально прямолинейны, а многие искусственные объекты имеют прямолинейные границы. По этой причине актуальным представляется исследование методов выделения и описания объектов содержащих прямолинейные границы.

Научная задача, на решение которой направлена диссертационная работа имеет народнохозяйственное значение, и заключается в разработке методов и алгоритмов выделения объектов, которые содержат прямолинейные границы. Областями применения предлагаемых методов и алгоритмов является робототехника, и комплексы бортового технического зрения беспилотных летательных аппаратов.

Разработанность темы. На сегодняшний день существуют детекторы прямолинейных сегментов границ на изображениях. Известен детектор Canny (Кенни) совместно с преобразованием Houph (Хафа). Преобразование Хафа строит прямую линию по изображению в параметрическом пространстве без учета пространственной связи между точками. В результате такой способ часто дает фрагментацию линий на короткие отрезки, что практически разрушает геометрическую структуру объекта.

Авторы Randall G., Von Gioi R., Grompone, Jakubovich J., Morel J-M. предложили метод и алгоритм (далее: детектор Рендела) выделения прямолинейных границ, основанный на выравнивании точек путем объединения пикселей в соответствии с направлениями вектора-градиента и позволяющий контролировать ложные обнаружения границ. Алгоритм не дает фрагментации линий и обладает адаптивными свойствами при выделении границ различной протяженности. Однако на краях выделяемых прямолинейных сегментов и в точках пересечения сегментов наблюдается большой разброс направлений градиента, эти участки не попадают в область поддержки границы и теряются. В результате алгоритм не позволяет выделить крайние области прямолинейных сегментов границ. Также из-за значительного увеличения разброса направлений градиента, в условиях зашумлённости, алгоритм не позволяет выделять прямолинейные сегменты границ при низких отношениях сигнал/шум.

Авторы Medioni G., Nevatia R. предложили использовать прямые линии и соотношения между ними в качестве средства описания объектов на изображениях, они же применили термин «антипараллельные пары». Такие пары имеют противоположные ориентации линий, поскольку одна из них образована изменением интенсивности границы от черного к белому, а другая - от белого к черному. Нахождение таких парных линий, расположенных достаточно близко друг к другу, позволяет убрать из рассмотрения лишние линии, находящиеся в данной области.

Идея использовать прямолинейные сегменты границ для описания объектов на изображениях имела продолжение в работах авторов: Сойфера В. А., Фурмана Я. А., Ярославского JI. П., Злобина В. К., Лёвшина В. Л., Bergevin R., Bernier J.-F., Fu Z., Sun Z., Tuytelaars T., Mikolajczyk K., Moreels P., Perona P., Bernstein E. J., Amit Y., Zhao Y., Chen Y. Q. и других.

Цель диссертационной работы. Повышение качества выделения объектов на цифровых изображениях радиотехнических систем наблюдения при действии помех, с использованием прямолинейных сегментов границ.

Объект исследования. Объектом исследования являются цифровые полутоновые шаблонные и реальные цифровые изображения, получаемые от радиолокаторов с синтезированной апертурой, спутниковых систем наблюдения и систем аэрофотосъемки.

Предмет исследования. Выделение объектов на цифровых изображениях, с использованием прямолинейных сегментов границ.

Задачи исследования.

1. Анализ существующих подходов к автоматизированному выделению границ объектов на цифровых изображениях.

2. Разработка метода выделения и упорядочивания прямолинейных сегментов границ на изображениях и оценивание координат начальных, и конечных точек обнаруженных границ.

3. Разработка метода описания объектов на изображениях на основе выделенных прямолинейных сегментов границ. Выделение подобных признаков на разных изображениях позволяет решать задачу их сравнения и согласования при различиях в масштабах, углах поворота, а также полученных от различных источников, и в разное время.

4. Алгоритмическая и программная реализация методов.

5. Исследование качества разработанных алгоритмов применительно к тестовым изображениям и изображениям, полученным от разных источников.

Научная новизна. Разработан метод выделения прямолинейных сегментов границ на цифровых изображениях, который позволяет выделять границы при более низком отношении сигнал/шум в сравнении с существующим детектором Рендела. И позволяет обнаруживать крайние области прямолинейных сегментов границ в отличие детектора Рендела и метода Кенни-Хафа, что позволяет обнаруживать точки пересечения выделенных линий описывающих границы.

Новыми элементами предложенного метода являются.

1. Пространственная ориентированная фильтрация, позволяющая устойчиво выделять прямолинейные границы на зашумлённых изображениях, и предварительно оценивать направление границы.

2. Оценка начальных и конечных точек прямолинейных сегментов границ по суммарному профилю градиента в нескольких строках, путем сравнения с пороговым уровнем, совместно с накоплением суммарного градиента вдоль всей границы, что позволяет с высокой точностью оценивать направления границ, а также обнаружить точки пересечения линий описывающих границы.

3. Использование положительных и отрицательных частей градиента, позволяющее различать положительные и отрицательные перепады яркости (антипараллельность).

4. Предложен новый метод описания объектов на изображениях с использованием выделенных прямолинейных сегментов границ, основанный на группировании линий с учетом их пересечений, угловой ориентации, близости и сдвига по отношению к другим линиям.

Новизна подтверждается положительными рецензиями на публикации, и широким обсуждением результатов на научных конференциях.

Практическая ценность диссертации состоит в алгоритмической и программной реализации предложенных методов, которые совместно позволяют решать задачу выделения объектов на цифровых изображениях. Предложенный метод описывает линиями прямолинейные границы на реальных изображениях искусственных объектов, полученных от спутниковых и самолетных систем наблюдения, и позволяет определить точки пересечения линий для последующего группирования их в структуры. Точки пересечения линий добавляют новый признак в описании объекта, что позволяет разработать новый метод группирования линий в структуры.

Практическая ценность предложенного метода выделения границ и описания объектов, подтверждается успешным использованием его при

обработке реальных изображений аэрофотосъемки, спутниковых и радиолокационных изображений, и полученным актом о внедрении результатов.

Новизна алгоритма выделения прямолинейных сегментов границ подтверждена свидетельством о государственной регистрации программы для ЭВМ №2012618013, РОСПАТЕНТ, 6 сентября 2012 г. «Программа оценивания координат прямолинейных сегментов кромок на изображениях».

Методы исследования. Для решения поставленных в диссертационной работе задач были использованы методы цифровой обработки изображений, теория распознавания образов, линейная алгебра, математическая статистика, применяется вычислительная техника и среда программирования МАТЬАВ.

Основные положения, выносимые на защиту.

1. Метод и алгоритм обнаружения, определения направления и местоположения прямолинейных сегментов границ пространственно ориентированным фильтром, и оценка координат их начальных и конечных точек.

2. Метод и алгоритм формирования структур для описания объектов на изображениях, на основе точек пересечения линий.

3. Результаты исследования характеристик предложенных алгоритмов на шумовых моделях и выделения объектов на реальных изображениях, полученных от системы аэрофотосъемки, от спутниковой системы наблюдения и радиолокатора с синтезированной апертурой.

Достоверность результатов исследования. Подтверждается компьютерным экспериментом на шаблонных изображениях с известными шумовыми характеристиками и на реальных изображениях, полученых от радиотехнических систем.

Внедрение результатов диссертации. Результаты диссертационных исследований, в части применения разработанного метода построения геометрических признаков для выделения объектов на цифровых изображениях, были использованы при построении комплексной системы защиты наземной техники в ходе выполнения НИР «Бронепоезд-2» в ОАО «ВНИИТрансмаш».

Апробация работы. Основные научные результаты диссертационной работы были доложены и обсуждались на научно-технических конференциях: «IEEE East-West Design&Test Symposium (EWDTS'10)» (St. Petersburg, Russia, 2010); 63 научно-техническая конференция профессорско-преподавательского состава научных сотрудников и аспирантов СПбГУТ (СПб, 2011); Первая международная научно-техническая и научно-методическая конференция СПбГУТ (СПб, 2012); вторая международная научно-техническая и научно-методическая конференция, СПбГУТ (СПб, 2013).

Публикации. По материалам диссертации опубликовано 10 печатных научных работ, из них две статьи опубликованы в рецензируемом научном издании из перечня ВАК Минобрнауки России и зарегистрированная программа для ЭВМ.

Личный вклад автора. Все результаты диссертационной работы получены автором самостоятельно.

Структура и объем диссертации. Диссертация состоит из введения, четырёх глав, заключения, списка литературы из 67 наименований, приложения. Объем диссертации составляет 112 страниц, включая 36 рисунков и 1 таблицу.

ГЛАВА 1. Применение методов и алгоритмов выделения объектов на изображениях, и распознавания изображений в радиотехнических системах

Объектом обработки многих современных радиотехнических систем являются цифровые изображения, получаемые с различных датчиков. Примером могут служить телевизионные, диагностические, охранные системы, системы автоматического управления, в частности беспилотные летательные аппараты. С созданием датчиков нового поколения и быстродействующей вычислительной техники встал вопрос об автоматизации ряда функций человека-оператора по обработке информации. Речь идет о создании автоматических систем технического зрения. Задачей таких систем является понимание изображений -обнаружение на сложном статистически неоднородном по яркости фоне представляющих интерес объектов, распознавание объектов и оценка их параметров.

1.1. Постановка задачи диссертационного исследования

Имеются изображения, полученные от разных датчиков радиотехнических систем наблюдения. Датчики различаются по рабочему диапазону длин волн и принципу формирования изображения. Изображения, полученные от различных датчиков, различаются по информативности, разрешающей способности, по характеру и уровню зашумленности, а также могут быть получены в разных условиях, таких как день, ночь или зима, лето.

Задача выявить признаки объектов на изображениях, которые устойчивы к изменению типа датчика и условий получения изображения. Разработать методы и алгоритмы позволяющие выделять необходимые признаки и производить описание объектов с помощью выделенных признаков.

Задача выделения объектов является одной из задач машинного зрения. Применительно к радиотехническим системам, к методам и алгоритмам машинного зрения применяются определённые требования. Рассмотрим

структуру радиотехнической системы наблюдения, типы датчиков применяемых в радиотехнических системах и требования к методам и алгоритмам машинного зрения, применяемым в радиотехнических системах.

1.2. Структура радиотехнической системы наблюдения

Радиотехнические системы наблюдения обычно формируют двумерные сигналы - изображения. На рисунке. 1.1 представлена структурная схема радиотехнической системы наблюдения. Электромагнитная волна попадает на вход регистрирующего устройства.

Регистрирующее устройство включает в себя:

- Объектив - предназначен для фокусировки необходимой области обзора на светочувствительную матрицу. Или антенну для приема отраженных сигналов от объектов.

- Предварительный усилитель - предназначен для усиления сигналов изображения до необходимого уровня для нормальной работы АЦП. При необходимости усилитель содержит схемы коррекции амплитудно-частотной и фазо-частотной характеристики, а также частотной фильтрации.

- АЦП - преобразует аналоговый сигнал в цифровую форму.

Далее сигнал направляется в устройство обработки изображения. В устройстве обработки изображения производятся операции сегментации, выделения объектов, распознавания объектов. На его выходе информация выдается в качестве кодированной последовательности параметров, необходимых для работы устройств управления.

Устройство регистрации

К исполнительным устройствам управления

Рисунок. 1.1 - Структурная схема радиотехнической системы наблюдения

1.3. Типы датчиков используемых в радиотехнических системах

наблюдения

Как в процессе функционирования автономной системы машинного зрения, так и в работе человека-оператора автоматизированной системы управления, многие проблемы возникают вследствие естественной низкой различимости объектов на оптическом изображении (дождь, туман и т. д.), либо возможного присутствия активных видов противодействия (маскировка, пиротехнические средства, прожекторы и т. п.). Значительную роль в снижении характеристик обнаружения играют также шумовые составляющие сигналов, образующиеся из-за физических особенностей применяемых датчиков, не идеальности каналов передачи данных и воздействия на них внешних помех.

Основной путь борьбы с этой группой проблем - это использование совместно датчиков различной физической природы [9].

Изображения, получаемые от различных датчиков, имеют свои характерные яркостно-геометрические особенности, которые обусловлены как физикой формирования самого изображения, так и характеристиками оптических систем, и электронных трактов. Эти особенности в значительной мере диктуют выбор алгоритмов предварительной обработки и распознавания. Так при обработке изображений в видимом оптическом диапазоне вызывают сложности затемненные участки, которые при выделении объектов образуют ложные объекты или искажают форму основного объекта. В тоже время изображение в инфракрасном диапазоне обладает свойством отсутствия теней, что даёт возможность выделить тени на оптическом изображении в случае совместной обработки изображений, получаемых от телевизионных и инфракрасных датчиков. Изображения, получаемые в миллиметровом диапазоне, характеризуются хорошим качеством в условиях дождя, тумана, облачности, однако разрешающая способность таких датчиков ниже и геометрические размеры объектов сцены на таких изображениях значительно отличаются от действительных. Таким образом, комплексная обработка изображений полученных в различных спектральных диапазонах предоставляет дополнительные возможности при автоматизации обработки и распознавания.

Таблица. 1.1 обобщает основные характеристики и наиболее известные признаки двумерных датчиков, обладающих существенной разрешающей способностью. Изображения, получаемые от различных датчиков, имеют существенную корреляцию, поскольку имеются естественные взаимосвязи между физическими величинами, которые измеряются этими датчиками. Это означает, что со статистической точки зрения данные, формируемые различными каналами многоканальных систем дистанционного наблюдения, не могут рассматриваться как независимые источники свидетельств об объектах сцены наблюдения. Тем не менее, каждый диапазон несет и определенную специфическую информацию об объекте наблюдения, что позволяет системам

машинного зрения, использующим несколько различных датчиков, демонстрировать лучшие результаты по сравнению с системами, основанными на одном спектральном диапазоне. Комплексирование данных различной физической природы может осуществляться на основе логического или вероятностного объединения поканальных решений, полученных в ходе раздельного анализа информации, поступающей от каждого датчика. Известны также схемы комплексирования, основанные на классификации объединённых наборов признаков, формируемых по совокупности признаков, выделяемых в ходе анализа изображений разных каналов.

Таблица. 1.1- Типы датчиков

Тип датчика Формат представления данных Полезные признаки

Тепловизионный 20-тепловое изображение форма, тах/шт эмиссия, количество и расположение горячих пятен, окружение (среда)

Лазерный локатор ЗБ-изображение размер, ЗБ-форма, расположение объектов

Радар с синтезированной апертурой 2Б-изображение размер и расположение объектов

Телевизионный 2Б-видеоизображение форма, размеры, текстура, внутренняя структура объектов, окружение

Микроволновый радар 2Б-изображение размер, формат, количество и расположение объектов

Однако, большинство современных подходов к построению многоканальных систем машинного зрения предполагают уже не комплексирование информации получаемой от различных датчиков, а сложный многоэтапный процесс совместного анализа данных, на различных этапах. Происходит перекрестный опрос систем с различными датчиками,

запрашиваются различного рода подтверждения и уточнения. При этом собственно алгоритмы анализа изображений различных диапазонов обладают достаточной схожестью и универсальностью, что позволяет с единых позиций рассмотреть требования к таким алгоритмам, и основные группы методов, используемые в подсистемах машинного зрения существующих и перспективных радиотехнических систем.

1.4. Требования к алгоритмам машинного зрения для применения в

радиотехнических системах

В последние годы использование цифровых видеодатчиков с высоким разрешением позволило существенно приблизить информативность искусственных зрительных устройств к соответствующим характеристикам человеческого глаза. При этом аппаратные возможности, предоставляемые последними достижениями электроники и вычислительной техники, достаточно высоки. Сегодня в значительной степени стоит необходимость решения технической задачи - разработки методов и алгоритмов «понимания» изображений, однако именно эта задача во многих случаях оказывается и наиболее трудной [3, 4].

Специфика разработки конкретных систем технического зрения, например, систем технического зрения беспилотных летательных аппаратов, определяется следующими основными особенностями. Во-первых, при разработке систем технического зрения требуется решать не общую проблему автоматического понимания изображения произвольной сцены, а гораздо более конкретную, узкую и определённую. Наиболее часто эта задача сводится к обнаружению и идентификации на изображении некоторого набора объектов заранее известных типов, присутствие которых может повлиять на формирование управления. Во-вторых, к алгоритмам обработки изображений в системах технического зрения предъявляются специальные требования, связанные с назначением и конкретными характеристиками разрабатываемой или уже существующей

системы управления. В зависимости от специфики конкретной задачи, система автоматического управления предъявляет к подсистеме анализа изображений такие требования как робастность, локализация и вычислительная реализуемость в рамках заданной аппаратной архитектуры. При этом одна из центральных проблем, отличающих область обработки изображений, например, от теории обработки сигналов, заключается в разработке методов обнаружения объектов, слабо чувствительных к разнообразным видам изменчивости, характерным только для изображений, таким как различные типы искажений оптических сенсоров, блики, затенения, загораживания, искажения формы, ракурсные искажения, шумовые компоненты. В то же время необходимо отметить, что существенное расширение возможностей подсистем технического зрения летательных аппаратов может быть достигнуто при совместном использовании датчиков различной физической природы. При этом финальная эффективность решения задачи управления будет зависеть как от используемого набора и параметров датчиков, так и от характера алгоритмов обработки и комплексирования информации.

Рассмотрим требования к методам и алгоритмам машинного зрения в радиотехнических системах на примере наиболее специфической группы алгоритмов - алгоритмов обнаружения объектов на изображениях: робастность; локализация;

вычислительная реализуемость.

Робастность. Алгоритмы технического зрения часто отрабатываются на математических моделях характерных целей, которые могут быть получены искусственным путём с помощью ЭВМ. Этот метод считается более быстрым и дает возможность отрабатывать алгоритмы в отношении объектов, реальные изображения которых отсутствуют. Однако, создаваемые алгоритмы должны работать не только на моделях изображений, но и на реальных изображениях. Между тем изменчивы и не формализуемы факторы, которые влияют на

качество реальных изображений от датчиков, и соответственно на вероятность обнаружения и распознавания объектов на этих изображениях.

Перечислим эти факторы более подробно:

шумовые эффекты - имеют десятки видов источников возникновения, к числу которых можно отнести шумы сенсоров приемопередающей аппаратуры, собственные шумы усилителей, Аналого-цифровых преобразователей, недостаток освещения и ряд других;

сложный текстурированный фон, на котором должно происходить обнаружение объектов, например, обнаружение штриховой наклейки на газетной странице;

разнообразие или изменчивость самих объектов обнаружения и соотношений между ними, переменная структура, дефекты, временные изменения формы;

эффекты заслонения одних объектов другими объектами, как правило, произвольной и неопределённой заранее формы, например, облако на снимке со спутника или загораживающие объекты искусственного происхождения;

эффекты резкой смены яркости и цвета освещения, тени и блики, особенно в динамически меняющихся сценах;

эффекты изменения среды между сенсорами и объектами наблюдения - атмосферные осадки, пыль, задымления, искусственные помехи и многие другие;

оптические монохроматические и хроматические аберрации неточность фокусировки, неудобный ракурс;

несинхронная запись и обработка данных в динамических задачах обнаружения, связанная с ограничениями компьютерных средствах хранения и анализа изображений, особенно критическими для приложений с требуемыми высокими временами реакции системы обнаружения объектов. Сюда можно отнести также сбои в компьютерных программах обработки.

Даже поверхностный анализ приведенных факторов демонстрирует практическую невозможность их полного формального математического описания - вероятностного, радиометрического или геометрического.

Отсутствие формализованного описания ключевых факторов, вносящих неопределённость в процесс обработки, приводит к тому, что говорить о существовании единственного оптимального алгоритма для решения той или иной задачи обработки изображений в подобных задачах не приходится. Можно представить, что существует несколько алгоритмов, достигающих примерно одинаковых результатов на «идеальных» (неискаженных) изображениях или моделях. Тогда возникает естественный вопрос о том, как качественно сравнить работу этих алгоритмов. При разработке реальных алгоритмов в настоящее время стандарт состоит в проверке эффективности работы сконструированных алгоритмов на огромных выборках реальных данных или изображениях, содержащих по возможности все неприятные случаи, а так же на зашумленных моделях изображений с известными характеристиками. Такие алгоритмы, которые обладают устойчивостью к значительным искажениям и меняющимся факторам, принято называть робастными. Робастность следует отнести к основным практическим требованиям, предъявляемым при разработке алгоритмов обнаружения и выделения объектов на изображениях, и других алгоритмов машинного зрения.

Локализация. Отличие присущее проблеме обнаружения объектов на изображениях по сравнению с задачами описания или распознавания заранее сегментированного образа заключается в том, что обнаружение в практических задачах всегда связано с процедурой поиска объекта. Именно реализация процедуры поиска объекта обычно связана с большим ростом необходимого числа вычислений.

Реальные задачи обработки визуальной информации, изобилуют степенями свободы, когда искомая яркостно-геометрическая структура на изображении может иметь произвольное положение, угловую ориентацию и

масштаб, и подвергаться проективным преобразованиям. Все это значительно увеличивает необходимое время для корреляционного перебора и других расчётов, и требует применения качественно иных идей по организации процесса обнаружения.

В связи с этим второе важнейшее свойство, которым в основном должны обладать алгоритмы обнаружения объектов на изображениях, можно определить как точная локализация. Это понятие означает, что необходимо не только обнаружить объект, но и точно указать в системе координат изображения его положение. По сравнению со своей эталонной моделью геометрическая структура объекта может оказаться, заметно искажена, причём аналитическая модель искажения может отсутствовать. В этих случаях локализация объекта является нетривиальной задачей. В более простой ситуации при аналитически известной с точностью до параметров геометрии искажений, под точной локализацией можно понимать знание о положении какой-либо характерной точки объекта и параметрах геометрии искажений (углы поворота, элементы проективного преобразования и т. п.). При этом встречающиеся случаи ошибок локализации, которые целесообразно разделить на две группы - нормальные и аномальные ошибки.

Нормальная ошибка - это правильная локализация объекта с некоторой позиционной или параметрической неточностью, характеризуемой количественными оценками. Для объектов, характеризуемых большими габаритными размерами, позиционные нормальные ошибки могут быть значительно меньше размера элемента изображения, уменьшаясь с величиной объекта. В этом случае принято говорить о возможности субпиксельной локализации. Это особенно важно для задач стерео обнаружения, так как при малых параллаксах ЗБ-объектов субпиксельная локализация самым существенным образом определяет точность их пространственного положения.

Аномальная ошибка - это возникновение ложного обнаружения объектов или перепутывание объектов на сцене. Требования по ограничению уровня аномальных ошибок составляют очень важную часть требований к алгоритмам

обнаружения, так как ошибочная локализация непосредственно приводит к формированию ошибочного описания и неэффективного управления.

Вычислительная реализуемость. Несмотря на огромный прогресс вычислительной техники и создание обширной специализированной процессорной базы для обработки изображений, для основной массы бортовых приложений реального времени характеристики вычислителей и их свойства все еще далеки от желаемых. Даже в случае реализации простейших алгоритмов оконной фильтрации изображения с минимальной апертурой 3X3 элемента, объем вычислений составляет десятки операций на точку изображения. При обработке более высокого уровня необходимый объем вычислений колеблется в пределах от сотен до тысяч операций на пиксель. Если размер анализируемого изображения составляет порядка 1000X1000 элементов, что не является чем-либо необычным для современных видеодатчиков, мы получим оценку количества потребляемых вычислений, порядка нескольких гигафлопов операций на кадр. Между тем для приложений реального времени необходимо выполнять эти вычисления в темпе кадровой развёртки (не менее 25 кадров в секунду), что приводит к оценке быстродействия около 50 Гфлопс/с. Таким образом, вычислительная реализуемость алгоритмов по-прежнему относится к числу наиболее важных факторов, учитываемых при их разработке.

1.5. Вывод к главе 1

В главе были рассмотрены типы датчиков и требования к алгоритмам машинного зрения, применяемым в радиотехнических системах. Особенности датчиков, требования к алгоритмам и виды сцен на изображениях накладывают требования к способам описания изображений. В следующей главе будут рассмотрены способы описания изображений и обоснован выбор в пользу таких признаков объектов, как прямолинейные сегменты границ.

Похожие диссертационные работы по специальности «Радиотехника, в том числе системы и устройства телевидения», 05.12.04 шифр ВАК

Заключение диссертации по теме «Радиотехника, в том числе системы и устройства телевидения», Онешко, Александр Викторович

Основные результаты данной работы сводятся к следующим положениям:

1. Предложен новый метод и алгоритм выделения прямолинейных сегментов границ на цифровых изображениях, работающей при более низких отношениях сигнал/шум в сравнении с существующим детектором Рендела, и позволяющий получить точки пересечения линий. Алгоритм упорядочивает линии по величине накопленного градиента и дает информацию о знаке градиента для каждой линии.

2. Предложен новый метод и алгоритм группирования линий в структуры, дающий новое описание объектов на изображениях с использованием выделенных линий, основанный на поиске пересечений линий с учетом их угловой ориентации и сдвига по отношению к другим линиям.

3. Представлены результаты экспериментальных исследований и оценки качества выделения объектов с применением разработанного метода выделения прямолинейных сегментов границ и описания объектов на основе линий на цифровых тестовых, и реальных изображениях. Показано, что совместная работа двух алгоритмов позволяют находить идентичные объекты на изображениях, полученных от разных источников и имеющих различный масштаб.

Дальнейшее сравнение изображений требует установления геометрических отношений уже между выделенными структурами. Требуется решить, по крайней мере, еще две важные задачи. Первая - вычисление параметров выделенных структур, т. е. координат их центров, ориентации, размеров. Вторая - вычисление геометрических соотношений, между структурами, которые были бы инвариантны к изменениям масштаба, сдвига и ориентации всего изображения.

ЗАКЛЮЧЕНИЕ

В представленной диссертационной работе была рассмотрена задача выделения на изображениях объектов содержащих прямолинейные границы.

Список литературы диссертационного исследования кандидат технических наук Онешко, Александр Викторович, 2013 год

ЛИТЕРАТУРА

1. Василенко Г.И., Цибулькин Л.М. Голографические распознающие устройства. - М.: Радио и связь, 1985. - С. 312.

2. Желтов С.Ю., Визильтер Ю.В. Перспективы интеллектуализации систем управления летательными аппаратами за счёт применения технологий машинного зрения // труды МФТИ, Том 1 - 2009. - №4. - С. 169-170. *

3. Желтов С.Ю., Визильтер Ю.В. Там же. - С. 170-173.

4. Желтов С.Ю., Визильтер Ю.В. Проблемы технического зрения в современных авиационных системах // Техническое зрение в системах управления мобильными объектами. - М., 2011 - С. 11-19.

5. Корябкина И. В. Эффективные способы и средства описания изображений в задачах распознавания образов: дис. канд. тех. наук, М., 2006. С. 9-26.

6. Левшин В.Л. Биокибернетические оптико-электронные устройства автоматического распознавания изображений. - М., Машиностроение, 1987. - С. 176.

7. Марр Д. Зрение. Информационный подход к изучению представления и обработки зрительных образов. - М., Радио и связь, 1987. - 400 с.

8. Онешко А. В. Выделение прямолинейных кромок на зашумленных изображениях / А. В. Онешко, В. Ю. Волков, Л. С. Турнецкий // Информационно-управляющие системы. - 2011. - Вып. 4 (53). - С. 13-17.

9. Онешко А. В. Описание и выделение объектов на изображениях с использованием прямолинейных сегментов. / А. В. Онешко, В. Ю. Волков, Л. С. Турнецкий // Информационно-управляющие системы. - 2012. - Вып. 5 (60). -С. 7-13.

10. Онешко А. В. Анализ возможности описания структур объектов на изображениях с использованием линейных сегментов. / Онешко А. В., Волков В. Ю. // Актуальные проблемы защиты и безопасности: труды пятнадцатой

Всероссийской научно-практической конференции, том 4 - СПБ., 2012. - С. 234236.

11. Онешко А. В. Описание и выделение объектов на изображениях радиотехнических систем с использованием прямолинейных сегментов / Онешко А. В., Волков В. Ю. // Актуальные проблемы инфотелекоммуникаций в науке и образовании №64: материалы международной научно-технической и научно-методической конференции. - СПб: СПбГУТ, 2012. - С. 39-40.

12. Онешко А. В. Свидетельство о государственной регистрации программы для ЭВМ № 2012618013 / Онешко А.В., Волков В.Ю., Турнецкий Л.С. и др. // «Программа оценивания координат прямолинейных сегментов кромок на изображениях», Российская Федерация, заявка № 2012615858 от 13.07.2012, опубл. 06.09.2012.

13. Орлов А. А. Методы и алгоритмы обработки и выделения структурных элементов полутоновых изображений на основе преобразования Хафа: дис. канд. тех. наук. Муром, 2001. С. 11-16.

14. Пытьев Ю.П. Морфологический анализ изображений // Доклад АН СССР. - 1983. - Т. 269, № 5. - С. 1061-1064.

15. Пытьев Ю.П. Задачи морфологического анализа изображений // Сб. «Математические методы исследования природных ресурсов Земли из Космоса». М., Наука, 1984. - С. 41-83.

16. Ярославский Л. П. Цифровая обработка сигналов в оптике и голографии: Введение в цифровую оптику. - М., Радио и связь, 1987. - С. 296.

17. Bergevin R., Bernier J.-F. Detection of unexpected multi-part objects from segmented contour maps//Pattern Recognition. Nov. 2009. Vol. 42. Iss. 11. P. 2403-2420.

18. Bernstein E. J., Amit Y. Part-Based Statistical Models for Object Classification and Detection: Proc. CVPR. 2005. P. 1-7.

19. Burns J., Hanson A., Riseman E. Extracting straight lines // IEEE Trans. On Patt. Analysis and Machine Intel. - 1986. - V. 8, № 4.

20. Canny J. A computational approach to edge detection // IEEE Trans. Pattern Anal. Mach. Intell. - 1986. - № 8. - P. 679-698.

21. Cao F., Mus.e P., Sur F. Extracting Meaningful Curves from Images // J. of Mathematical Imaging and Vision 22 : P. 159-181. 2005.

22. Davies E.R. Machine Vision: Theory, Algorithms, Practicalities // Academic Press., 2-nd Edition. - San Diego, 1997. - P. 750.

23. Duda R.O., Hart P.E. Use of the Hough transformation to detect lines and curves in pictures // Comm. ACM. - 1972. - 15, 11-15. - P. 11-15.

24. Ettarid M., Rouchdi M., Labouab L. Automatic extraction of buildings from high resolution satellite images. - 2008. - Vol. XXXVII, VIII, - P. 61-65.

25. Fu Z., Sun Z. An algorithm of straight line features matching on aerial imagery Arch. Photogrammetry. - 2008. - Vol. XXXVII. Pt. B3b. - P. 97-102.

26. Goto T., Magnenat-Thalmann N. Facial Feature Extraction for Quick 3-D Face Modeling // Signal Processing: Image Communication. - Vol. 17, 2002. - P. 243259.

27. Grimson W.E.L. Object Recognition by Computer: The Role of Geometric Constraints. - MIT Press., 1990.

28. Gruen A., Baltsavias E. Geometrically constrained multiphoto matching // PERS. - 1988.-V. 5.

29. Gruen A., Baltsavias E. Adaptive least squares correlation with geometrical constraints // SPIE. - 1985. - V. 595.

30. Gurevich I. B., Yashina V. V. Descriptive Image Algebras with One Ring // Pattern Recognition and Image Analysis: Advances in Mathematical Theory and Applications. - 2003. - Vol. 13, No.4. -P. 579-599.

31. Haralick R.M., Chu Y.H. Solving camera parameters from the perspective projection of a parameterized curve // Pattern Recogn. Lett. - 1984. - N. 17(6). - P. 637-695.

32. Harris C., Stephens M. A combined corner and edge detector // Proc. 4th Alvey Vis Conf, 147—151, 1988.

33. Horaud R., Veillon F., Skordas T. Finding geometric and relational structures in an image // First European Conf. Computer Vision, France, Apr. 23-27, 1990. P. 374-384.

34. Hough P.V.C. Methods and Means for Recognizing Complex Patterns. -U.S., Patent 3069654, 1962.

35. LSD: a Line Segment Detector. URL: http://www.ipol.im/pub/demo/gjmr_line_segment_detector/ (дата обращения: 29.04.2013).

36. Jin X., Davis C.H. Automated building extraction from high-resolution satellite imagery in urban areas using structural, contextual, and spectral information // EURASIP J. on Applied Signal Processing. 2005 Vol. 14. P. 2196 - 2206.

37. Kim S. K.. Efficient algorithms to extract geometric features of edge images: Proc. IPCV'10. Las Vegas, Nevada, USA, 2010. Vol. II. P. 519-525.

38. Kithen L., Rosenfeld A. Gray-level corner detection // Pattern Recogn. Lett. - 1982. -№ 1. - P. 95-102.

39. Lavigne D.A., Saeedi P., Dlugan A., Goldstein N., Zwick H. Automatic building detection and 3D shape recovery from single monocular electro-optic imagery // SPIE Defence&Security Symp., Florida USA, 2007.

40. Liu D. H., Lam К. M., Shen L. S. Illumination invariant face recognition. Pattern Recognition, Vol. 38,2005, P. 1705-1716.

41. Li Yi, Shapiro L. G. Consistent Line Clusters for Building Recognition in CBIR: Proc. IPCR. 2002. P. 1-5.

42. Manjunath B.S., Shelhar C. A New Approach to Image Feature Detection with Applications, Pattern Recognition, Vol. 29, No. 4,1996, P. 627-640.

43. Marr D., Hildreth E. Theory of edge detection // Proc. R. Soc. (London). -1980.-B. 207.-P. 187-217.

44. Medioni G., Nevatia R. Matching images using linear features//IEEE Trans. 1984. Vol. PAMI-6. P. 675-685.

45. Mikolajczyk K., Schmid C. A Performance Evaluation of Local Descriptors // IEEE Trans. 2005. Vol. PAMI-27. N 10. P. 1615-1630Kim S. K„

46. Mikolajczyk K, Zisserman A., Schmid C. Shape recognition with edge-based features: Proc. Brit. Mach. Vision Conf., Norwich UK, - Sept. 9-11, 2003. - P.

779-788.

47. Moreels P., Perona P. Evaluation of features detectors and descriptors based on 3D Objects//J. of Computer Vision. July 2007. Vol. 73. N 3. P. 263-284.

48. Mumford D. The problem of robust shape descriptors // Proc. First Int'l. Conf. Computer Vision. - 1987. - P. 602-606.

49. Nyongesa H. 0., Al-Khayatt S., Mohamed S. M., Mahmoud M. Fast Robust Fingerint Feature Extraction and Classification: Journal of Intelligent and Robotic Systems, Vol. 40, 2004, P. 103-112.

50. Oneshko A. Objects Description and Extraction by the Use of Straight Line Segments in Digital Images. / Oneshko A., Volkov V., Germer R., Oralov D. // Computer Vision and Pattern Recognition IPCV'll: Proceedings of the 2011 International Conference on Image Processing. - Las Vegas, Nevada, USA, CSREA Press, 2011,-P. 588-594.

51. Oneshko A., Volkov V., Germer R., Oralov D. Object Description and Finding of Geometric Structures on the Base of Extracted Straight Edge Segments in Digital Images: Proceedings of the 2012 International Conference on Image Processing, Computer Vision and Pattern Recognition IPCV'12. Las Vegas, Nevada, USA, CSREA Press, 2012. P. 805-812.

52. Oneshko A., Volkov V., Germer R., Oralov D. Straight Edge Extraction and Localization on Noisy Images: Proc. IEEE East-West Design&Test Symposium (EWDTS'10). Sept 17-20, St.Petersburg, Russia, 2010. P. 267-270.

53. Pavlidis T. Algorithms for Graphics and Image Processing // Computer Science Press, Rockville, MD, 1982.

54. Pinker S. Visual Cognition: An Introduction, Visual Cognition, A cognition special issue. - Netherlands, 1988. - P. 1-65.

55. Schenk. Automatic Generation of DEM's, Digital Photogrammetry: An Addentum to the Manual of Photogrammetry // American Society for Photogrammetry & Remote Sensing. - 1996.

56. Seeger U., Seeger R. Fast corner detection in grey-level images // Pattern Recogn. Lett. - 1994. - № 15(7). - P. 669-675.

57. Serra J. Introduction to mathematical morphology // Computer Vision, Graphics and Image Processing. - 1986. - V. 35, № 3.

58. Shao J., Mohr R., Fraser C. Multi-image matching using segment features; Int. Arch . of Photogrammetry and Remote Sensing. Amsterdam, 2000. Vol. XXXIII. Pt. B3. P. 837-844.

59. Sohn G., Dowman I.J. Extraction of buildings from high resolution satellite data // Autom. Extract, of Man-Made Objects from Aerial and Space Images (III), Sweets&Zeitlinger, 2001. P. 345—355.

60. Srinivasan P., Wang L., Shi J. Grouping Contours via a Related Image // IEEE Conf. Computer Vision and Pattern Recognition (CVPR). - 2010. - P. 17-36.

61. Tamminen T., Lampinen J. Learning an Object Model for Feature Matching in Clutter. Proceedings of the 13th Scandinavian Conference on Image Analysis (SCIA2003), Sweden, June 29 -July 2,2003, Springer, P. 193-199.

62. Theng L. B. Automatic building extraction from satellite imagery//Engineering Letters. Nov. 2006. 13:3, P. 1-5.

63. Tretiak E., Barinova O., Kohli P., Lempitsky V. Geometric image parsing in man-made environment // Comp. Vision. 2011.

64. Tuytelaars T., Mikolajczyk K. Local Invariant Feature Detectors: A Survey // Computer Graphics and Vision. 2007. Vol. 3. N 3. P. 177-280.

65. Von Gioi R. Grompone, Jakubovich J., Morel J-M., Randall G. LSD: A Line Segment Detector // IEEE Trans. - 2010. -Vol. PAMI-32. N 4. - P. 722-732

66. Xue Z., Li S.Z., Teoh E.K. Bayesian Shape Model for Facial Feature Extraction and Recognition, Pattern Recognition, Vol. 36,2003, P. 2819 - 2833.

67. Zhao Y., Chen Y. Q. Connected Equi-Length Line Segments for Curve and Structure Matching // J. Pattern Rec. and Artificial Intel. 2004. Vol. 18. P. 1019— 1037.

ПРИЛОЖЕНИЕ 1. Программная реализация алгоритма оценивания координат прямолинейных сегментов границ на изображениях в среде

MATLAB

clear ele

msh=0 094, %порог по выходу фильтра m2sh=0 15, %порог по градиенту вдоль m2sh1=0 05, %порог по градиенту поперек п2=2, %ограничение максимального количества линий i=imread('C \N01 bmp'), %загрузка изображения imview(i), %i=rgb2gray(i), figr=mat2gray(i), fi=single(figr), imview(fi) sig=1 4, TT1=0 1,

[gg,tt]=edge(fi, 'canny',TT1 ,sig), imview(gg),

[sizeMI ,sizeN1]=size(fi), % размер изображения без рамок для отображения линий fg=single([2 4542,49 12 94,5 12 15 12 5, 49 12 94,2 4542 ]*1/159), f=conv2(fg,fi),

[sizeM,sizeN]=size(f), f1 =f(5+2 sizeM-4-2,5+2 sizeN-4-2), imview(fl),

yg1p=[1 1 1, 0 0 0, -1 -1 -1], yg2p=[1 1 0, 1 0-1, 0-1 -1], yg3p=[1 0-1,10-1,1 0-1], yg4p=[0 -1 -1,10-1,110], yg5p=[-1 -1 -1,0 0 0, 1 1 1], yg6p=[-1 -1 0, -1 0 1, 0 1 1], yg7p=[-1 0 1,-10 1,-10 1], yg8p=[0 11,-10 1,-1-10],

[sizeM,sizeN]=size(f1), ramv=single(zeros(sizeM-2,5)), ramg=single(zeros(5,sizeN-2+10)), zg1=conv2(f1,yg1p),

[sizeM,sizeN]=size(zg1), zg1r=zg1(3 sizeM-2,3 sizeN-2), zg1r=[ramv zglr ramv], zg1r=[ramg, zglr, ramg], zg1r1=zg1r,

[sizeM2,sizeN2]=size(zg1r), % imview(zglr), zg2=conv2(f1,yg2p), [sizeM,sizeN]=size(zg2), zg2r=zg2(3 sizeM-2,3 sizeN-2), zg2r=[ramv zg2r ramv], zg2r=[ramg, zg2r, ramg], zg2r1=zg2r, %imview(zg2r), zg3=conv2(f1,yg3p), [sizeM,sizeN]=size(zg3), zg3r=zg3(3 sizeM-2,3 sizeN-2), zg3r=[ramv zg3r ramv], zg3r=[ramg, zg3r, ramg], zg3r1=zg3r, %imview(zg3r),

zg4=conv2(f1 ,yg4p), [sizeM,sizeN]=size(zg4), zg4r=zg4(3 sizeM-2,3 sizeN-2), zg4r=[ramv zg4r ramv], zg4r=[ramg, zg4r, ramg], zg4r1 =zg4r, %imview(zg4r), zg5=conv2(f1 ,yg5p), [sizeM,sizeN]=size(zg5), zg5r=zg5(3 sizeM-2,3 sizeN-2), zg5r=[ramv zg5r ramv], zg5r=[ramg, zg5r, ramg], zg5r1=zg5r, %imview(zg5r), zg6=conv2(f1 ,yg6p), [sizeM,sizeN]=size(zg6), zg6r=zg6(3 sizeM-2,3 sizeN-2), zg6r=[ramv zg6r ramv], zg6r=[ramg, zg6r, ramg], zg6r1=zg6r, % imview(zg6r), zg7=conv2(f1,yg7p), [sizeM,sizeN]=size(zg7), zg7r=zg7(3 sizeM-2,3 sizeN-2), zg7r=[ramv zg7r ramv], zg7r=[ramg, zg7r, ramg], zg7r1=zg7r, % imview(zg7r), zg8=conv2(f1 ,yg8p), [sizeM,sizeN]=size(zg8), zg8r=zg8(3 sizeM-2,3 sizeN-2), zg8r=[ramv zg8r ramv], zg8r=[ramg, zg8r, ramg], zg8r1=zg8r, % imview(zg8r),

fi1=fi(4+2 sizeM1-3-2,4+2 sizeN1-3-2), fi1=[ramvfi1 ramv], fi1=[ramg, fi1, ramg], zg1Bg=single(zeros(1,10)), %imview( fi1),

My=1, Ny=16,

yf1(1 My,1 Ny)=0,

yf1(1, )=1,

yf=single(yf1),

n1=1,

a1=2,

for a=22 -a1 -338-a1

if and(a<=22, a>=-23) %1

zg1 =imrotate(zg1 r, a,'bilinear'),

zgf=conv2(zg1 ,yf), [M N]=size(zgf), zgf1=zgf(1 M-0,Ny/2 N-Ny/2), zgfr1=rot90(zgf1), m= max(max(zgfr1)), amkt(0+n1 0+n1, 1 1)=a, amkt(0+n1 0+n1, 2 2)=m, n1=n1+1, end

if and(a<-23, a>=-68) %2

zg1=imrotate(zg2r, a,'bilinear'),

zgf=conv2(zg1,yf), [M,N]=size(zgf), zgf1=zgf(1 M-0,Ny/2 N-Ny/2), zgfr1=rot90(zgf1), m= max(max(zgfr1)), amkt(0+n1 0+n1, 1 1)=a, amkt(0+n1 0+n1, 2 2)=m, n1=n1+1, end

if and(a<-68, a>=-113) %3

zg1=imrotate(zg3r, a,'bilinear'),

zgf=conv2(zg1,yf), [M,N]=size(zgf), zgfl =zgf(1 M-0,Ny/2 N-Ny/2), zgfr1=rot90(zgf1), m= max(max(zgfr1)), amkt(0+n1 0+n1, 1 1)=a, amkt(0+n1 0+n1, 2 2)=m, n1=n1+1, end

if and(a<-113, a>=-158) %4

zg 1 =imrotate(zg4r, a,'bilinear'),

zgf=conv2(zg1,yf), [M,N]=size(zgf), zgfl =zgf(1 M-0,Ny/2 N-Ny/2), zgfr1=rot90(zgf1), m= max(max(zgfr1)), amkt(0+n1 0+n1, 1 1)=a, amkt(0+n1 0+n1, 2 2)=m, n1=n1+1, end

if and(a<-158, a>=-203) %5

zg1=imrotate(zg5r, a,'bilinear'),

zgf=conv2(zg1,yf), [M,N]=size(zgf), zgfl =zgf(1 M-0,Ny/2 N-Ny/2), zgfr1=rot90(zgf1), m= max(max(zgfr1)), amkt(0+n1 0+n1, 1 1)=a, amkt(0+n1 0+n1, 2 2)=m, n1=n1+1, end

if and(a<-203, a>=-248) %6

zg1=imrotate(zg6r, a,'bilinear'),

zgf=conv2(zg1,yf), [M,N]=size(zgf), zgfl =zgf(1 M-0,Ny/2 N-Ny/2), zgfr1=rot90(zgf1), m= max(max(zgfr1)), amkt(0+n1 0+n1, 1 1)=a, amkt(0+n1 0+n1, 2 2)=m, n1=n1+1, end

if and(a<-248, a>=-293) %7

zg1=imrotate(zg7r, a,'bilinear'),

zgf=conv2(zg1,yf), [M,N]=size(zgf), zgfl =zgf(1 M-0,Ny/2 N-Ny/2), zgfr1=rot90(zgf1), m= max(max(zgfr1)), amkt(0+n1 0+n1, 1 1)=a,

amkt(0+n1 0+n1, 2 2)=m, n1=n1+1, end

if and(a<-293, a>=-338) %8

zg1=imrotate(zg8r, a,'bilinear'),

zgf=conv2(zg1 ,yf), [M N]=size(zgf), zgf1=zgf(1 M-0,Ny/2 N-Ny/2), zgfr1=rot90(zgf1), m= max(max(zgfr1)), amkt(0+n1 0+n1, 1 1)=a, amkt(0+n1 0+n1, 2 2)=m, n1=n1+1,

end end

amkt1=amkt( ,2), [mt2,kt2]=max(amkt1), at2r=amkt(kt2 kt2,1 1),

c=mt2, n1—1 n=1

figure, subimage(fil), hold on

while mt2>=msh*26 2,

if and(at2r<=22, at2r>=-23) zg1=imrotate(zg1r, at2r, 'bilinear'), %1

zgf=conv2(zg1 ,yf), [M,N]=size(zgf), zgfl =zgf(1 M-0,Ny/2 N-Ny/2), [M1 ,N1]=size(zgf1), zgfrl =rot90(zgf1), [mtr.ktr] = max(max(zgfr1)), zg11 =imrotate(zg1 r1, at2r, 'bilinear'), amktr(0+n1 0+n1, 1 1)=at2r, amktr(0+n1 0+n1, 2 2)=mt2, amktr(0+n1 0+n1, 3 3)=ktr, n1=n1+1 end

if and(at2r<-23, at2r>=-68) zg1=imrotate(zg2r, at2r, 'bilinear'), %2

zgf=conv2(zg1,yf), [M,N]=size(zgf), zgf1=zgf(1 M-0,Ny/2 N-Ny/2), [M1,N1]=size(zgf1), zgfrl =rot90(zgf1), [mtr.ktr] = max(max(zgfr1)), zg11=imrotate(zg2r1, at2r, 'bilinear'), amktr(0+n1 0+n1, 1 1)=at2r, amktr(0+n1 0+n1, 2 2)=mt2, amktr(0+n1 0+n1, 3 3)=ktr, n1=n1+1, end

if and(at2r<-68, at2r>=-113) zg1=imrotate(zg3r, at2r, 'bilinear'), %3

zgf=conv2(zg1,yf), [M N]=size(zgf), zgf1=zgf(1 M-0,Ny/2 N-Ny/2), [M1 ,N1]=size(zgf1), zgfrl =rot90(zgf1), [mtr ktr] = max(max(zgfr1)),

zg11=imrotate(zg3r1, at2r, 'bilinear'); amktr(0+n1:0+n1, 1:1)=at2r; amktr(0+n1:0+n1, 2:2)=mt2; amktr(0+n1:0+n1, 3:3)=ktr; n1=n1+1; end

if and(at2r<-113, at2r>=-158) zg1=imrotate(zg4r, at2r, 'bilinear');

zgf=conv2(zg1,yf); [M,N]=size(zgf); zgfl =zgf(1 :M-0,Ny/2:N-Ny/2); [M1,N1]=size(zgf1); zgfr1=rot90(zgf1); [mtr.ktr] = max(max(zgfr1)); zg11=imrotate(zg4r1, at2r, 'bilinear'); amktr(0+n1:0+n1, 1:1)=at2r; amktr(0+n1:0+n1, 2:2)=mt2; amktr(0+n1:0+n1, 3:3)=ktr; n1=n1+1; end

if and(at2r<-158, at2r>=-203) zg1=imrotate(zg5r, at2r, 'bilinear');

zgf=conv2(zg1,yf); [M,N]=size(zgf); zgfl =zgf(1 :M-0,Ny/2:N-Ny/2); [M1,N1]=size(zgf1); zgfr1=rot90(zgf1); [mtr.ktr] = max(max(zgfr1)); zg11=imrotate(zg5r1, at2r, 'bilinear'); amktr(0+n1:0+n1, 1:1)=at2r; amktr(0+n1:0+n1, 2:2)=mt2; amktr(0+n1:0+n1, 3:3)=ktr; n1=n1+1; end

if and(at2r<-203, at2r>=-248) zg1=imrotate(zg6r, at2r, 'bilinear');

zgf=conv2(zg1,yf); [M,N]=size(zgf); zgfl =zgf(1 :M-0,Ny/2:N-Ny/2); [M1,N1]=size(zgf1); zgfr1=rot90(zgf1); [mtr.ktr] = max(max(zgfr1)); zg11=imrotate(zg6r1, at2r, 'bilinear'); amktr(0+n1:0+n1, 1:1)=at2r; amktr(0+n1:0+n1, 2:2)=mt2; amktr(0+n1:0+n1, 3:3)=ktr; n1=n1+1; end

if and(at2r<-248, at2r>=-293) zg1=imrotate(zg7r, at2r, 'bilinear');

zgf=conv2(zg1 ,yf); [M,N]=size(zgf); zgfl =zgf(1 :M-0,Ny/2:N-Ny/2); [M1 ,N1]=size(zgf1); zgfrl =rot90(zgf1); [mtr.ktr] = max(max(zgfr1)); zg11=imrotate(zg7r1, at2r, 'bilinear'); amktr(0+n1:0+n1, 1:1)=at2r; amktr(0+n1:0+n1, 2:2)=mt2; amktr(0+n1:0+n1, 3:3)=ktr; n1=n1+1; end

if and(at2r<-293, at2r>=-338) zg1=imrotate(zg8r, at2r, 'bilinear'), %8

zgf=conv2(zg1,yf), [M,N]=size(zgf), zgfl =zgf(1 M-0,Ny/2 N-Ny/2), [M1 ,N1]=size(zgf1), zgfr1=rot90(zgf1), [mtr.ktr] = max(max(zgfr1)), zg11=imrotate(zg8r1, at2r, 'bilinear'), amktr(0+n1 0+n1, 1 1)=at2r, amktr(0+n1 0+n1, 2 2)=mt2, amktr(0+n1 0+n1, 3 3)=ktr, n1=n1+1, end

B=single(zeros(M1,N1)), B(ktr, )=1, zgf1B=(B *zgf1), zgf1B1=zgf1B(ktr ktr,), zgfl B11 =rot90(zgf1 B1,3), [m1,k1]= max(max(zgf1B)), B=single(zeros(M1,N1)), B(ktr-1 ktr+1, )=1, zg1B=(B *zg1), zg1Bs=sum(zg1B), zg1Bslm=[zg1Bg zglBs zglBg], zg1 Bslm=zg1 Bslm(1 1, k1-8+10 k1+8+10), zg1 Bslm=rot90(zg1 Bslm,3),

m2= max(zglBslm), zth=zg1 Bs>m2*m2sh, zthG=zth(1 1,k1 k1),

if zthG==1 zthR=zth(1 1,k1 end), zthL1=zth(1 1,1 k1), zthL=rot90(zthL1,2), [mR,kR]= min(zthR), [mL,kL]= min(zthL), x1=k1-kL, x2=k1+kR, y1=ktr, y2=ktr, end

if zthG==0 zthR=zth(1 1 ,k1 end), zthL1=zth(1 1,1 k1), zthL=rot90(zthL1,2), [mR,kR]= max(zthR), [ml_,kL]= max(zthL),

if and(mR==1, mL==1) if kR<=kL

zthR=zth(1 1 ,k1+kR end), [mR1,kRm]= min(zthR), x1=k1+kR, x2=k1+kR+kRm, y1=ktr, y2=ktr, end

if kR>kL

zthL=zthL(1 1,kL end), [mL1,kLm]= min(zthL), x1=k1-kL-kLm, x2=k1-kL, y1=ktr, y2=ktr, end end

if mR==0 zthL=zthL(1 1,kL end),

[mL1,kLm]= min(zthL); x1=k1-kL-kLm; x2=k1-kL; y1=ktr; y2=ktr; end

if mL==0 zthR=zth(1:1,k1+kR:end); [mR1 ,kRm]= min(zthR); x1=k1+kR; x2=k1+kR+kRm; y1=ktr; y2=ktr; end

end

% КОРРЕКЦИЯ УГЛОВЫХ ОШИБОК

% Индикатор местонахождения середины длинны линии тХ=(х1+х2)/2; Bind=single(zeros(M1 ,N1)); Bind(ktr:ktr,floor(mX):floor(mX)+1)=1; mXX=floor(mX); BindR=imrotate(Bind, -at2r); [Mind,Nind]=size(BindR);

BindR=BindR(fix((Mind-(sizeM2-2))/2):(sizeM2-1)+fix((Mind-(sizeM2-2))/2),fix((Nind-(sizeN2-2))/2):(sizeN2-

1 )+fix((Nind-(sizeN2-2))/2));

Mind2=(Mind-(sizeM2-2))/2;

Mind3=fix((Mind-(sizeM2-2))/2);

Nind2=(Nind-(sizeN2-2))/2;

Nind3=fix((Nind-(sizeN2-2))/2);

Ox=N1/2; Oy=M1/2; Xdis=Ox-mX; Ydis=Oy-ktr;

if and(Xdis<=0, Ydis<=0) xB=single(zeros(M1,abs(Xdis*2))); yB=single(zeros(abs(Ydis*2), N1+abs(Xdis*2))); zgf1BR=[zg11 xB]; zgf1BR=[zgf1BR; yB]; end

if and(Xdis<=0, Ydis>=0) xB=single(zeros(M1,abs(Xdis*2))); yB=single(zeros(Ydis*2, N1 +abs(Xdis*2))); zgf1BR=[zg11 xB]; zgf1BR=[yB; zgflBR]; end

if and(Xdis>0, Ydis>=0) xB=single(zeros(M1, Xdis*2)); yB=single(zeros(Ydis*2, N1 +Xdis*2)); zgf1BR=[xB zg11]; zgf1BR=[yB; zgflBR]; end

if and(Xdis>0, Ydis<=0) xB=single(zeros(M1, Xdis*2)); yB=single(zeros(abs(Ydis*2), N1 +Xdis*2)); zgf1BR=[xBzg11]; zgfl BR=[zgf1 BR; yB]; end

% Селекция границы с угловым шагом all и измерение длинны % линии с накоплением

пЗ=1; all =0.25;

for al=6: -all: -6

if al==0 al=0.05; end

zgf1BRr=imrotate(zgf1BR, al, 'bilinear');

[M2,N2]=size(zgf1 BRr); BR=single(zeros(M2,N2)); Oy=round(M2/2); Ox=round(N2/2); BR(Oy-1:Oy+1,:)=1; zgfl BRr1 =(BR.*zgf1 BRr); zgfl BRr1 S=sum(zgf1 BRr1); zthr=zgf1 BRr1 S>m2*m2sh; zthrR=zthr(1:1 ,Ox:end); zthrL1=zthr(1:1,1 :Ox); zthrL=rot90(zthrL1,2); [mrR,krR]= min(zthrR); [mrL,krL]= min(zthrL); zgfl R=zgf1 BRr1 S(1:1 ,Ox:Ox+krR); zgfl L=zgf1 BRr1 S(1:1 ,Ox-krL:Ox); summR=sum(zgf1 R); summL=sum(zgf1 L); summ=summR+summL; alr(n3:n3, 1:1)=al; alr(n3:n3, 2:2)=krR+1; alr(n3:n3, 3:3)=krL+1; alr(n3:n3, 4:4)=krR+krL; alr(n3:n3, 5:5)=summ; n3=n3+1; end

% Вычисление угловой поправки krR1sum=0; krR1s=0; krL1sum=0; krL1s=0; [m_alrs,a_alrs]=max(alr(1:48+1, 5:5)); dat2r=alr(a_alrs:a_alrs, 1:1); length=alr(a_alrs:a_alrs, 4:4); Iength1(n:n,1:1)=length;

[m_alrk,a_alrk]=max(alr(1:48+1,4:4));

if a_alrk<=3;

dat2r=0;

end

%Вычисление поправки ktr at2r=at2r+dat2r;

BindRr=imrotate(BindR, at2r, 'bilinear'); BindRr1=rot90(BindRr); [m_ind,ktrjnd] = max(max(BindRr1)); [Mindl ,Nind1]=size(BindRr);

%Вычисление поправки mX BindRmX=imrotate(BindR, at2r, 'bilinear'); [m_mX,mX_ind] = max(max(BindRmX));

% Вычисление новых координат с учётом угловой поправки round_dat2r=48+1-((dat2r/al1)+24); if round_dat2r<=0 round_dat2r=1; end

if round_dat2r>48

round_dat2r=48;

end

x1=mX_ind-alr(round_dat2r:round_dat2r, 3:3); x2=mX_ind+alr(round_dat2r:round_dat2r, 2:2);

ktr1=ktr; ktr=ktr_ind; y1=ktr; y2=ktr;

% Формирование области поперечной отсечки градиента вдоль найденной % прямой

L=alr(round_dat2r:round_dat2r, 4:4); %длинна линии

BBI=ones(sizeM2,sizeN2); BBI=single(BBI);

BBrl=imrotate(BBI, at2r, 'bilinear'); if and(at2r<=22, at2r>=-23) zg8rt=imrotate(zg1r1, at2r, 'bilinear'); zg1rt=zg8rt>m2*m2sh1; end

if and(at2r<-23, at2r>=-68) zg8rt=imrotate(zg2r1, at2r, 'bilinear'); zg1 rt=zg8rt>m2*m2sh1; end

if and(at2r<-68, at2r>=-113) zg8rt=imrotate(zg3r1, at2r, 'bilinear'); zg1rt=zg8rt>m2*m2sh1; end

if and(at2r<-113, at2r>=-158) zg8rt=imrotate(zg4r1, at2r, 'bilinear'); zg1 rt=zg8rt>m2*m2sh1; end

if and(at2r<-158, at2r>=-203)

zg8rt=imrotate(zg5r1, at2r, 'bilinear'); zg1 rt=zg8rt>m2*m2sh1; end

if and(at2r<-203, at2r>=-248)

zg8rt=imrotate(zg6r1, at2r, 'bilinear'); zg1rt=zg8rt>m2*m2sh1; end

if and(at2r<-248, at2r>=-293)

zg8rt=imrotate(zg7r1, at2r, 'bilinear'); zg1 rt=zg8rt>m2*m2sh1; end

if and(at2r<-293, at2r>=-338)

zg8rt=imrotate(zg8r1, at2r, 'bilinear'); zg1 rt=zg8rt>m2*m2sh1; end

if at2r>22 zg8rt=imrotate(zg8r1, at2r, 'bilinear'); zg1 rt=zg8rt>m2*m2sh1; %imview(zg1rt); end

if at2r<-338 zg8rt=imrotate(zg1r1, at2r, 'bilinear'); zg 1 rt=zg8rt>m2*m2sh 1; end

[size_zg1rtM , size_zg1rtN]=size(zg1rt), zg1rt1=zg1rt,

Ld=2,

k_up_down=0, for lx=1 1 L+Ld zg1rt=zg1rt1,

zg1rt=zg1rt(1 size_zg1rtM,x1+lx-1 x1+lx-1), zg1rt_up=zg1rt(1 ktr,1 1), zg1rt_down=zg1rt(ktr size_zg1rtM,1 1), zg1 rt_up=rot90(zg1 rt_up,2), [m_down,k_down]= min(zg1rt_down), [m_up,k_up]= min(zg1rt_up),

k_u p_d own=k_u p_d ow n+k_u p+k_d own, if lx==L+Ld width=k_up_down/lx, end

x1l=x1+lx, x2l=x1+lx, y1 l=ktr-k_up-2, y2l=ktr+k_down+2, if y1l<=0 y1l=1, end

if y2l<=0 y2l=1, end

if x1l<=0 x1l=1, end

if x2l<=0 x2l=1, end

BBrl(y1l y2l,x1l x2l)=0, end

% вычисление истенных координат на исходном изображении % вычисление координат первой конечной точки прямой Ox=Nind1/2, % находим координаты центра изображения Oy=Mind1/2,

x1norm=x1-Ox, % принимаем Ох, Oy = 0 и нормируем координаты х1,у1 относительно центра y1norm=Oy-y1,

R=sqrt((y1 norm)A2+(x1 norm)A2), alfa=acos(x1 norm/R)*180/pi,

if y1norm<0 xi1norm=R*cos((at2r+alfa)*pi/180), yi1norm=R*sin((at2r+alfa)*pi/180), xi1 normr=round(xi1 norm), yi1 normr=round(yi1 norm), x1 i=(sizeN2)/2+xi1 normr, y1 i=(sizeM2)/2+yi1 normr, end

if y1norm>0 xi1norm=R*cos((-at2r+alfa)*pi/180), yi1 norm=R*sin((-at2r+alfa)*pi/180), xi1 normr=round(xi1 norm), yi1 normr=round(yi1 norm), x1 i=(sizeN2)/2+xi1 normr, y1 i=(sizeM2)/2-yi1 normr, end

%вычисление координат второй конечной точки прямой x2norm=x2-Ox, %принимаем Ох, Оу = 0 и нормируем координаты х1 ,у1 относительно центра y2norm=Oy-y2,

R=sqrt((y2norm)A2+(x2norm)A2), alfa=acos(x2norm/R)*180/pi,

if y2norm<0 xi2norm=R*cos((at2r+alfa)*pi/180), yi2norm=R*sin((at2r+alfa)*pi/180), xi2normr=round(xi2norm), yi2normr=round(yi2norm), x2i=(sizeN2)/2+xi2normr, y2i=(sizeM2)/2+yi2normr, end

if y2norm>0 xi2norm=R*cos((-at2r+alfa)*pi/180), yi2norm=R*sin((-at2r+alfa)*pi/180), xi2normr=round(xi2norm), yi2normr=round(yi2norm), x2i=(sizeN2)/2+xi2normr, y2i=(sizeM2)/2-yi2normr, end

x=[x1i x2i], y=[y11 y2i],

xy1r(n n, 1 1 )=at2r,

[F]=fopen('C \1\angle prn'.'w'), %запись в файл значений угла

fprintf(F, '%4i ',ху1 г),

fclose(F),

save С \1\xy1 г mat ху 1 г, ху1т(п п, 1 1)=mt2,

[F]=fopen('C \1\max prn'/w'), %запись в файл значений максимума

fprintf(F, '%7 4f',xy1m),

fclose(F),

xy1c(n n, 1 1)=y1i, xy1c(n n, 2 2)=x1i, xy1c(n n, 3 3)=y2i, xy1c(n n, 4 4)=x2i,

[F]=fopen('C \1\coordinate prn'.'w'), %запись в файл координат

fprintf(F, '%3i ,xy1 с),

fclose(F),

save С \1 \xy1 с mat xy1 c,

xy 1 (n n, 1 1)=at2r,

xy1(n n, 2 2)=m_alrs,

xy 1 (n n, 3 3)=mt2,

xy1(n n, 4 4)=y1i,

xy1(n n, 5 5)=x1i,

xy 1 (n n, 6 6)=y2i,

xy 1 (n n, 7 7)=x2i,

xy 1 (n n, 8 8)=n2,

xy 1 (n n, 9 9)=width

plot(x,y 'LineWidth',2,'Color','green'),

v=4;

BB=ones(sizeM2,sizeN2); BB=single(BB);

if and(at2r<=22, at2r>=-23) %1

BBrl=imrotate(BBrl, -at2r, 'bilinear'); BBrl(BBrl<0.8)=0; [BM1 ,BN1]=size(BBrl);

BBrl=BBrl(fix((BM1-(sizeM2-2))/2):(sizeM2-1)+fix((BM1-(sizeM2-2))/2),fix((BN1-(sizeN2-2))/2):(sizeN2-1)+fix((BN1-(sizeN2-2))/2)); zg1r=(BBrl.*zg1r); zg8r=(BBrl.*zg8r); zg2r=(BBrl.*zg2r); end

if and(at2r<-23, at2r>=-68) %2

BBrl=imrotate(BBrl, -at2r, 'bilinear'); BBrl(BBrl<0.8)=0; [BM1 ,BN1]=size(BBrl);

BBrl=BBrl(fix((BM1-(sizeM2-2))/2):(sizeM2-1)+fix((BM1-(sizeM2-2))/2),fix((BN1-(sizeN2-2))/2):(sizeN2-1)+fix((BN1-(sizeN2-2))/2)); zg2r=(BBrl.*zg2r); zg1r=(BBrl.*zg1r); zg3r=(BBrl.*zg3r); end

if and(at2r<-68, at2r>=-113) %3

BBrl=imrotate(BBrl, -at2r, 'bilinear');

BBrl(BBrl<0.8)=0;

[BM1,BN1]=size(BBrl);

BBrl=BBrl(fix((BM1-(sizeM2-2))/2):(sizeM2-1)+fix((BM1-(sizeM2-2))/2),fix((BN1-(sizeN2-2))/2):(sizeN2-1 )+fix((BN1-(sizeN2-2))/2)); zg3r=(BBrl.*zg3r); zg2r=(BBrl.*zg2r); zg4r=(BBrl.*zg4r); end

if and(at2r<-113, at2r>=-158) %4

BBrl=imrotate(BBrl, -at2r, 'bilinear'); BBrl(BBrl<0.8)=0; [BM1 ,BN1]=size(BBrl);

BBrl=BBrl(fix((BM1-(sizeM2-2))/2):(sizeM2-1)+fix((BM1-(sizeM2-2))/2),fix((BN1-(sizeN2-2))/2):(sizeN2-1 )+fix((BN1-(sizeN2-2))/2)); zg4r=(BBrl.*zg4r); zg3r=(BBrl.*zg3r); zg5r=(BBrl.*zg5r); end

if and(at2r<-158, at2r>=-203) %5

BBrl=imrotate(BBrl, -at2r, 'bilinear'); BBrl(BBrl<0.8)=0; [BM1 ,BN1]=size(BBrl);

BBrl=BBrl(fix((BM1-(sizeM2-2))/2):(sizeM2-1)+fix((BM1-(sizeM2-2))/2),fix((BN1-(sizeN2-2))/2):(sizeN2-1)+fix((BN1-(sizeN2-2))/2)); zg5r=(BBrl.*zg5r); zg4r=(BBrl.*zg4r); zg6r=(BBrl.*zg6r); end

if and(at2r<-203, at2r>=-248) %6

BBrl=imrotate(BBrl, -at2r, 'bilinear');

BBrl(BBrl<0 8)=0, [BM1,BN1]=size(BBrl),

BBrl=BBrl(fix((BM1-(sizeM2-2))/2) (sizeM2-1)+fix((BM1-(sizeM2-2))/2),fix((BN1-(sizeN2-2))/2) (sizeN2-1 )+fix((BN 1 -(sizeN2-2))/2)), zg6r=(BBrl *zg6r), zg5r=(BBrl *zg5r), zg7r=(BBrl *zg7r), end

if and(at2r<-248, at2r>=-293) %7

BBrl=imrotate(BBrl, -at2r, 'bilinear'), BBrl(BBrl<0 8)=0, [BM1,BN1]=size(BBrl),

BBrl=BBrl(fix((BM1-(sizeM2-2))/2) (sizeM2-1)+fix((BM1-(sizeM2-2))/2),fix((BN1-(sizeN2-2))/2) (sizeN2-1)+fix((BN1-(sizeN2-2))/2)), zg7r=(BBrl *zg7r), zg6r=(BBrl *zg6r), zg8r=(BBrl *zg8r), end

if and(at2r<-293, at2r>=-338) %8

BBrl=imrotate(BBrl, -at2r, 'bilinear'), BBrl(BBrl<0 8)=0, [BM1,BN1]=size(BBrl),

BBrl=BBrl(fix((BM 1 -(sizeM2-2))/2) (sizeM2-1 )+fix((BM 1 -(sizeM2-2))/2),fix((BN 1 -(sizeN2-2))/2) (sizeN2-1)+fix((BN1-(sizeN2-2))/2)), zg8r=(BBrl *zg8r), zg7r=(BBrl *zg7r), zg1r=(BBrl *zg1r), end

if at2r>22 %9

BBrl=imrotate(BBrl, -at2r, 'bilinear'), BBrl(BBrl<0 8)=0, [BM1,BN1]=size(BBrl),

BBrl=BBrl(fix((BM 1 -(sizeM2-2))/2) (sizeM2-1 )+fix((BM 1 -(sizeM2-2))/2),fix((BN 1 -(sizeN2-2))/2) (sizeN2-1)+fix((BN1-(sizeN2-2))/2)), zg8r=(BBrl *zg8r), zg7r=(BBrl *zg7r), zg1r=(BBrl *zg1r), end

if at2r<-338 %10

BBrl=imrotate(BBrl, -at2r, 'bilinear'), BBrl(BBrl<0 8)=0, [BM1,BN1]=size(BBrl),

BBrl=BBrl(fix((BM1-(sizeM2-2))/2) (sizeM2-1)+fix((BM1-(sizeM2-2))/2),fix((BN1-(sizeN2-2))/2) (sizeN2-1)+fix((BN1-(sizeN2-2))/2)), zg1r=(BBrl *zg1r), zg8r=(BBrl *zg8r), zg2r=(BBrl *zg2r), end

n1 = 1,

for a=22 -a1 -338-a1

if and(a<=22, a>=-23) %1

zg1=imrotate(zg1r, a, 'bilinear'),

zgf=conv2(zg1,yf), [M,N]=size(zgf), zgf1=zgf(5 M-4,Ny/2 N-Ny/2), zgfr1=rot90(zgf1), m= max(max(zgfr1)),

amkt(0+n1:0+n1, 1:1 )=a; amkt(0+n1:0+n1, 2:2)=m; n1=n1+1; end

if and(a<-23, a>=-68) zg1=imrotate(zg2r, a, 'bilinear');

zgf=conv2(zg1,yf); [M,N]=size(zgf); zgfl =zgf(5:M-4,Ny/2:N-Ny/2); zgfr1=rot90(zgf1); m= max(max(zgfr1)); amkt(0+n1:0+n1, 1:1 )=a; amkt(0+n1:0+n1, 2:2)=m; n1=n1+1; end

if and(a<-68, a>=-113) zg1=imrotate(zg3r, a, 'bilinear');

zgf=conv2(zg1,yf); [M,N]=size(zgf); zgfl =zgf(5:M-4,Ny/2:N-Ny/2); zgfr1=rot90(zgf1); m= max(max(zgfr1)); amkt(0+n1:0+n1, 1:1 )=a; amkt(0+n1:0+n1, 2:2)=m; n1=n1+1; end

if and(a<-113, a>=-158) zg1=imrotate(zg4r, a, 'bilinear');

zgf=conv2(zg1,yf); [M,N]=size(zgf); zgfl =zgf(5:M-4,Ny/2:N-Ny/2); zgfr1=rot90(zgf1); m= max(max(zgfr1)); amkt(0+n1:0+n1, 1:1 )=a; amkt(0+n1:0+n1, 2:2)=m; n1=n1+1; end

if and(a<-158, a>=-203) zg 1 =imrotate(zg5r, a,'bilinear');

zgf=conv2(zg1 ,yf); [M,N]=size(zgf); zgfl =zgf(5:M-4,Ny/2:N-Ny/2); zgfr1=rot90(zgf1); m= max(max(zgfr1)); amkt(0+n1:0+n1, 1:1 )=a; amkt(0+n1:0+n1, 2:2)=m; n1=n1+1; end

if and(a<-203, a>=-248) zg1=imrotate(zg6r, a,'bilinear');

zgf=conv2(zg1,yf); [M,N]=size(zgf); zgf1=zgf(5:M-4,Ny/2:N-Ny/2); zgfrl =rot90(zgf1); m= max(max(zgfr1)); amkt(0+n1:0+n1, 1:1 )=a; amkt(0+n1:0+n1, 2:2)=m; n1=n1+1; end

if and(a<-248, a>=-293) zg1=imrotate(zg7r, a,'bilinear'); zgf=conv2(zg1 ,yf);

[M,N]=size(zgf); zgfl =zgf(5:M-4,Ny/2:N-Ny/2); zgfr1=rot90(zgf1); m= max(max(zgfr1 )); amkt(0+n1:0+n1, 1:1)=a; amkt(0+n1:0+n1, 2:2)=m; n1=n1+1; end

if and(a<-293, a>=-338) zg1=imrotate(zg8r, a,'bilinear');

zgf=conv2(zg1,yf); [M,N]=size(zgf); zgf1=zgf(5:M-4,Ny/2:N-Ny/2); zgfr1=rot90(zgf1); m= max(max(zgfr1)); amkt(0+n1:0+n1, 1:1 )=a; amkt(0+n1:0+n1, 2:2)=m; n1=n1+1;

end end

n1=1 ;

amkt1=amkt(:,2); [mt2,kt2]=max(amkt1 ); at2r=amkt(kt2:kt2,1:1); n=n+1; n2=n2-1 ; if n2==0 mt2=0; end end

ПРИЛОЖЕНИЕ 2. Свидетельство о регистрации программы для ЭВМ.

РТСОТЙСЖАШ ФИДИРАЩЖЖ

ж шшшгш

СВИДЕТЕЛЬСТВО

о государственной регистрации программы для ЭВМ

№ 2012618013

Yo.

'i, " i, ч «

J-iV vc-cs, й, \\ v

«Программа оценивания координат прямолинейных ^ 1#, на изображениях» ^

- -Л»

Правсх>бладата1ъ(.гшУ;Р^

«Яв^и^ ммс» (RU)

,-к

> '/ г

г > V ^ Чч

Анцев Иван Георгиевич,

^ 4

Онешко Александр Викторович (RU) , ^ v

,v н ^ ^

Vsy

fci. „ " VS *

• ...........

•»^^«fv-i- „ л ^^^ - „

4 .bViiW Ч «Дата поступления 13 июля 2012 Г.

13арегистрировано в Ре«гп>е программ для ЭВМ

¿и««*.,.. »л»?- ?>ii

V

^ЪРжЩюиттъФедфалънои службы В^Ж; интеллектуальной собственности

ЖШШШМЗ Ш.J^kl БЖСинотв^

^ у

¡ЮЛ«....

Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.