Построение кусочно-линейного классификатора по минимуму расстояния в условиях ограниченного объема обучающей выборки тема диссертации и автореферата по ВАК РФ 05.13.01, кандидат технических наук Юшкявичюс, Зигмонтас-Кястутис Зигмович

  • Юшкявичюс, Зигмонтас-Кястутис Зигмович
  • кандидат технических науккандидат технических наук
  • 1984, Вильнюс
  • Специальность ВАК РФ05.13.01
  • Количество страниц 214
Юшкявичюс, Зигмонтас-Кястутис Зигмович. Построение кусочно-линейного классификатора по минимуму расстояния в условиях ограниченного объема обучающей выборки: дис. кандидат технических наук: 05.13.01 - Системный анализ, управление и обработка информации (по отраслям). Вильнюс. 1984. 214 с.

Оглавление диссертации кандидат технических наук Юшкявичюс, Зигмонтас-Кястутис Зигмович

ВВЕДЕНИЕ.

Глава I. ПОСТАНОВКА ЗАДАЧИ ИССЛЕДОВАНИЯ КУСОЧНО-ЛИНЕЙНОГО КЛАССИФИКАТОРА ПО МИНИМУМУ РАССТОЯНИЯ.

1.1. Задача классификации при ограниченном объеме выборки.

1.2. Кусочно-линейный классификатор по минимуму расстояния. Общие сведения.

1.3. Проблемы построения кусочно-линейного классификатора по минимуму расстояния при ограниченном объеме обучающей выборки.

Глава II. ВЕРОЯТНОСТЬ ОШИБКИ КЛАСОШКАЩИ КУСОЧНО-ЛИНЕЙНОГО КЛАССИФИКАТОРА ПО МИНИМУМУ РАССТОЯНИЯ.

2.1. Условная вероятность ошибки классификации.

2.2. Ожидаемая вероятность ошибки классификации.

2.3. Асимптотическая вероятность ошибки классификации.

2.4. Вычислительные аспекты определения вероятности ошибки классификации.

2.4.1. Упрощенные способы вычисления вероятности ошибки классификации.

2.4.2. Вычисление ожидаемой вероятности ошибки классификации способом моделирования условной вероятности ошибки классификации

Глава III. ВЛИЯНИЕ ОГРАНИЧЕННОСТИ ОБУЧАЮЩЕЙ ВЫБОРКИ НА ВЕРОЯТНОСТЬ ОШИБКИ КУСОЧНО-ЛИНЕЙНОГО КЛАССИФИКАТОРА ПО МИНИМУМУ РАССТОЯНИЯ.

3.1. Влияние ограниченности объема обучающей выборки. Случай М = 2.

3.2. Влияние ограниченности объема обучающей выборки. Случай М > 2.

3.3. Эксперименты с реальными данными.

3.4. Сравнение с линейным классификатором "евклидова расстояния"

Глава 1У. ПОСТРОЕНИЕ КУСОЧНО-ЛИНЕЙНОГО КЛАССИФИКАТОРА ПО МИНИМУМУ РАССТОЯНИЯ В УСЛОВИЯХ ОГРАНИЧЕННОГО ОБЪЕМА ОБУЧАЮЩЕЙ ВЫБОРКИ.

4.1. Оценка вероятности ошибки классификации.

4.1.1. Модифицированный метод "скользящего экзамена" . ИЗ

4.1.2. Модифицированный метод "переклассификации"

4.2. Подбор числа эталонов.

4.3. Определение представительности обучающей выборки.

4.4. Упрощенный способ определения эталонов.

4.5. Испытание методики построения кусочно-линейного классификатора решением конкурсной задачи по распознаванию.

4.6. Решение практических задач построения кусочно-линейного классификатора

4.6.1. Решение двух задач по построению алгоритмов распознавания шумящих механизмов.

4.6.2. Синтез алгоритма распознавания функционального состояния сердечнососудистой системы по ритмограмме.

Рекомендованный список диссертаций по специальности «Системный анализ, управление и обработка информации (по отраслям)», 05.13.01 шифр ВАК

Введение диссертации (часть автореферата) на тему «Построение кусочно-линейного классификатора по минимуму расстояния в условиях ограниченного объема обучающей выборки»

Одним из основных направлений в сфере автоматизированной обработки информации является использование устройств, которые по измерениям параметров объектов или процессов производят классификацию их по классам. Потребность в таких устройствах возникает при распознавании печатных и рукописных знаков, сигналов речи, летающих аппаратов и подводных объектов, состояния организма человека и диагностике болезней. Использование распознающих устройств позволяет избавиться от ручной обработки информации, повышает скорость и качество принимаемых решений.

Распознающие устройства используют разнообразные методы классификации [12,37]. Эти методы различаются способами описания классов и правилами классификации. В случае, когда классы имеют сложную структуру, широкое распространение получили кусочно-линейные (КЛ) правила классификации [12,19,27,51,66,69, 83,98] , в частности, КЯ классификатор по минимуму расстояния [27,50,52]. Он основан на разбиении классов на подклассы, которые могут быть разделены линейными гиперплоскостями. Принадлежность объекта к классу определяется по минимуму евклидова расстояния до эталонов. Реализация этого классификатора очень проста, но вместе с тем, он является мощным инструментом для решения задач классификации сложных образов [19,32,44,96].Однако, несмотря на известность и многочисленность применений КЯ классификатора по минимуму расстояния, вопросы его построения к настоящему времени разработаны недостаточно. В реальной ситуации о подклассах, обычно, известно очень мало. Основная информация извлекается из обучающей выборки. Построение КЛ классификатора по минимуму расстояния в таких условиях связано с рядом проблем. Этими проблемами являются: оценка вероятности ошибки классификации, подбор числа эталонов, определение представительности обучающей выборки. Известные способы решения этих проблем могут быть использованы лишь при большом объеме обучающей выборки. Однако во многих практических применениях объем выборки невелик и эти способы не пригодны. Поэтому разработка методики построения КЛ классификатора по минимуму расстояния при ограниченном объеме обучающей выборки является актуальной задачей.

Для построения этой методики необходимы сведения о влиянии ограниченности выборки на вероятность ошибки классификации. К сожалению, влияние ограниченности выборки на качество классификации не исследовано. Кроме того, отсутствуют аналитические выражения и конструктивные способы определения вероятности ошибки классификации. Поэтому при разработке методики построения КЛ классификатора по минимуму расстояния возникает необходимость определить эти выражения и исследовать влияние ограниченности выборки на вероятность ошибки классификации.

Цель и задачи исследования. Цель работы: а) исследование влияния ограниченности обучающей выборки на качество классификации КЛ классификатора по минимуму расстояния и разработка методики его построения; б) применение этой методики при решении практических задач. Задачами работы являются:

- определение выражений и способов вычисления вероятности ошибки классификации;

- исследование влияния ограниченности обучающей выборки на вероятность ошибки классификации;

- разработка способов оценки вероятности ошибки классификации, подбора числа эталонов и определения представительности объема обучающей выборки;

- разработка программного обеспечения для построения кусочно-линейного классификатора по минимуму расстояния и его апробация путем решения практических задач.

Основные результаты работы. Впервые проведено исследование точности классификации и проблем построения КЛ классификатора по минимуму расстояния в условиях ограниченного объема обучающей выборки. При этом:

- получены выражения для условной, асимптотической и ожидаемой вероятностей ошибок классификации. Эти выражения являются обобщением соответствующих формул для линейного классификатора "евклидова расстояния" [41] на случай, когда классы описываются не одним, а несколькими эталонами;

- разработаны приближенные способы вычисления вероятности ошибки классификации при большом числе эталонов и показана их практическая полезность;

- определено влияние ограниченности обучающей выборки на вероятность ошибки классификации с учетом размерности пространства признаков, величины асимптотической вероятности ошибки классификации, числа подклассов и их взаимного расположения;

- проведено сравнение точности КЛ и линейного классификаторов.

Практическую ценность работы представляют разработанные способы оценки вероятности ошибки классификации, подбора числа эталонов и определения представительности обучающей выборки. Они учитывают влияние ограниченности обучающей выборки и позволяют выбрать наилучшие условия работы КЛ классификатора по минимуму расстояния. Создано программное обеспечение для построения КЛ классификатора по минимуму расстояния в условиях ограниченной выборки. Оно включено в систему для оперативной разработки распознающих алгоритмов СОРРА [45] и может быть использовано исследователем, не являющимся профессиональным программистом.

Внедрение работы. Результаты работы использованы при выполнении договорных работ с предприятием п/я A-I427 по теме "Разработка алгоритмов динамической классификации акустических нестационарных сигналов и повышение качества распознавания по их фазовым изображениям на базе ЭВМ БЭСМ-6", с предприятием п/я A-II73 по теме "Исследование возможности автоматического распознавания нестационарных сигналов", а также при построении системы автоматизированного анализа ритмограмм согласно комплексной программе СЭВ по теме 2.2.9 "Разработка и усовершенствование методов автоматического анализа электро-кардиосигналов на базе вычислительных машин". С использованием результатов работы построены алгоритмы распознавания, дающие по сравнению с другими классификаторами меньшую вероятность ошибки. Условный экономический эффект от внедрений составил 67000 рублей.

Публикации и апробация работы. Основные результаты работы опубликованы в [16,44,45,57-63] и докладывались на:

- республиканских научно-технических конференциях (Каунас, 1972-1983 гг.);

- республиканских семинарах "Статистические проблемы управления" (Вильнюс, 1972-1984 гг.);

- всесоюзном рабочем семинаре "Проблемы малых выборок в распознавании образов" (Друскининкай, 1975 г.);

- 4-ой всесоюзной научно-технической конференции по автоматизации ввода письменных знаков в ЦВМ (Каунас, 1977 г.);

- общемосковском семинаре по прикладной статистике (Москва,

1977 г.);

- всесоюзной научно-технической конференции "Применение многомерного статистического анализа в экономике и оценке качества продукции" (Тарту, 1977 г.);

- симпозиуме специалистов стран - членов СЭВ по теме 2.2.9 комплексной проблемы "Сердечно-сосудистые заболевания" (Каунас, 1981 г.).

На защиту выносятся:

- точные и приближенные способы определения вероятности ошибки классификации для КЛ классификатора по минимуму расстояния, учитывающие ограниченность объема обучающей выборки;

- результаты исследования влияния ограниченности объема обучающей выборки на вероятность ошибки классификации;

- способы оценки вероятности ошибки классификации, подбора числа эталонов, определения представительности обучающей выборки;

- использование созданной методики построения КЛ классификатора по минимуму расстояния для разработки алгоритмов распознавания шумящих механизмов, синтеза правила классификации функционального состояния сердечно-сосудистой системы, а также при решении международной задачи по распознаванию образов.

Связь с научной тематикой института. Работа выполнена в отделе процессов распознавания Института математики и кибернетики АН Литовской ССР в соответствии с плановыми темами "Исследование автоматизации опознавания случайных процессов" (№ гос.per. 75015204), "Исследование автоматизации опознавания многомерных случайных процессов" (№ гос.per. 78014897), согласно особо целевой программе 0.Ц.027 по теме "Развить и ввести в эксплуатацию автоматизированную систему научных исследований коллективного пользования для институтов Академии наук Литовской ССР" гос.per. 81064739) и согласно комплексной программе СЭВ "Сердечно-сосудистые заболевания" по теме 2.2.9 "Разработка и совершенствование методов автоматического анализа электрокар-диосигналов на базе вычислительных машин".

Структура работы и краткое содержание отдельных глав. Диссертационная работа состоит из аннотации, введения, четырех глав, заключения, списка литературы и приложений.

В первой главе приводится общая формулировка задачи построения классификатора при ограниченном объеме обучающей выборки и используемая терминология, представляются сведения о КЯ классификаторе по минимуму расстояния, рассматриваются проблемы его построения, приводятся известные способы их решения, определяются задачи настоящего исследования.

Во второй главе выводятся формулы для условной, ожидаемой и асимптотической вероятностей ошибок классификации. Формулы выводятся основываясь на предположении, что распределения признаков в классах описываются смесью сферически нормальных распределений. Рассматриваются вычислительные аспекты определения вероятности ошибки классификации. Приводятся два упрощенных способа вычисления, позволяющие оценить вероятность ошибки классификации при большом числе подклассов (снизу и сверху). Описываются результаты экспериментов по оценке практической полезности этих способов.

В третьей главе приводятся результаты исследования влияния на вероятность ошибки классификации ограниченности объема обу- • чающей выборки. Исследование проведено с учетом размерности пространства признаков, величины асимптотической вероятности ошибки классификации, числа и взаимного расположения подклассов. Рассмотрены случаи классифицированной и неклассифицированной выборки. Полученные результаты исследования сравниваются с результатами экспериментов, проведенных с использованием реальных данных.

Приводятся результаты сравнения точности Ю1 классификатора по минимуму расстояния с точностью линейного классификатора.

В четвертой главе решаются задачи построения КЛ классификатора по минимуму расстояния. Приводятся два способа оценки вероятности ошибки классификации. Описываются результаты экспериментов по оценке точности этих способов. Излагаются способы подбора числа эталонов. Описывается методика решения задачи определения представительности обучающей выборки. Приводятся результаты экспериментов по оценке влияния на качество классификации замены метода максимального правдоподобия, при оценке эталонов, более простым методом минимизации внутригруппового рассеивания. Излагаются результаты испытания созданной методики построения кусочно-линейного классификатора по минимуму расстояния решением международной конкурсной задачи по распознаванию образов. Приводится краткое описание программного обеС' печения для построения КЛ классификатора по минимуму расстояния. Излагаются результаты решения практических задач: двух задач по построению алгоритмов распознавания шумящих механизмов, задачи синтеза правила классификации функционального состояния сердечно-сосудистой системы.

Похожие диссертационные работы по специальности «Системный анализ, управление и обработка информации (по отраслям)», 05.13.01 шифр ВАК

Заключение диссертации по теме «Системный анализ, управление и обработка информации (по отраслям)», Юшкявичюс, Зигмонтас-Кястутис Зигмович

Выводы по главе 1У

I. Разработаны способы оценки вероятности ошибки Ю1 классификатора по минимуму расстояния, подбора числа эталонов, определения представительности обучающей выборки. Они учитывают влияние ограниченности обучающей выборки и позволяют выбрать наилучшие условия работы КЯ классификатора.

2. Определено, что при небольшом объеме выборки замена метода максимального правдоподобия, при определении эталонов, более простым методом минимизации внутригруппового рассеивания, не существенно влияет на качество классификации.

3. Проведено испытание методики построения кусочно-линейного классификатора решением конкурсной задачи по распознаванию образов. Результаты решения подтвердили эффективность методики.

4. Создано программное обеспечение для построения КП классификатора по минимуму расстояния, которое включено в систему оперативной разработки распознающих алгоритмов (СОРРА) и им может пользоваться исследователь, не являющийся профессиональным программистом.

5. Решены, с использованием результатов работы, три практические задачи: две задачи построения алгоритма распознавания шумящих механизмов и задача синтеза правила классификации функционального состояния сердечно-сосудистой системы. Экономический эффект от внедрений - 67000 рублей.

ЗАКЛЮЧЕНИЕ

В диссертации получены следующие основные результаты:

1. Получены выражения условной, асимптотической и ожидаемой вероятности ошибки классификации КП классификатора по минимуму расстояния. Полученные выражения являются обобщением соответствующих формул линейного классификатора "евклидова расстояния" на случай, когда классы описываются не одним, а несколькими эталонами.

2. Построены два упрощенных способа определения вероятности ошибки классификации при большом числе подклассов М , дающие оценки сверху и снизу и показана их практическая полезность.

3. Исследовано влияние на вероятность ошибки классификации КЛ классификатора ограниченности объема обучающей выборки. При этом определено, что: а) относительное увеличение вероятности ошибки классификации , из-за недостаточного обучения КЛ классификатора, обученного по выборке объема N , в случае классифицированной выборки не превышает относительного увеличения вероятности ошиб' ки классификации линейного классификатора "евклидова расстояния", обученного по выборке объема N/M, б) влияние взаимного расположения подклассов на относительное увеличение вероятности ошибки классификации существенно лишь при объеме обучающей выборки N , меньшем или соизмеримом с числом признаков р . При N / М ^ р этим влиянием можно пренебречь и для оценки э€ воспользоваться значением Вывод хорошо согласовывается с результатами экспериментов, проведенных на ЭВМ с использованием реальных данных.

4. Проведено сравнение точности КЛ классификатора по минимуму расстояния с точностью линейного классификатора "евклидова расстояния". Установлено, что использование КЛ классификатора для различения классов, состоящих из подклассов, в условиях ограниченной выборки не всегда оправдано. В ряде случаев более точные результаты могут быть получены, используя линейный классификатор.

5. Разработаны способы оценки вероятности ошибки классификации, подбора числа эталонов, определения представительности обучающей выборки.

6. Создано программное обеспечение для построения K1I классификатора по минимуму расстояния, которое включено в систему оперативной разработки распознающих алгоритмов (СОРРА).

7. Решены, с использованием результатов работы, три практические задачи: две задачи построения алгоритма распознавания шумящих механизмов и задача синтеза правила классификации функционального состояния сердечно-сосудистой системы. Экономический эффект от внедрений — 67000 рублей.

Список литературы диссертационного исследования кандидат технических наук Юшкявичюс, Зигмонтас-Кястутис Зигмович, 1984 год

1. Апраушева Н.И. Об использовании смесей нормальных распределений в распознавании образов: Автореферат диссертации на соискание ученой степени кандидата физико-математических наук. — М., 1981. - 15 с.

2. Андерсон Т. Введение в многомерный статистический анализ. — М.: Физматгиз, 1963. 500 с.

3. Бахвалов Н.С. Численные методы. — М.: Наука, 1975. 632 с.

4. Вапник В.Н., Червоненкис А.Я. Теория распознавания образов. — М.: Наука, 1974. 415 с.

5. Волошин Г.Я., Косенкова С.Т. Метод распознавания, основанный на аппроксимации выборок смесью нормальных законов. — В кн.: Вычислительные системы. Новосибирск, 1975, вып.61, с. 60-68.

6. Галактионов В.В., Лукстиня Л.А., Данченко Л.М., Федорова Р.Н., Широкова А.И. Библиотека программ на ФОРТРАНЕ и автокоде МАДЛЕН для БЭСМ-6, т.II, под ред. Р.Н.Федоровой. Дубна: Объединенный институт ядерных исследований, 1978. - 452 с.

7. Гришкявичюс Д., Раудис Ш. Об ожидаемой ошибке классификатора для качественных признаков. — В кн.: Статистические проблемы управления. Вильнюс, 1979, вып.38, с. 95-109.

8. Деев А.Д. Асимптотические разложения распределений статистик дискриминантного анализа W,M,W*« — В кн.: Статистические методы классификации. М.: Изд-во МГУ, 1972, вып.З, с. 6-51.

9. Деев А.Д. О дискриминантной функции, построенной по независимым блокам признаков. — Изв. АН СССР. Техническая кибернетика, № 4, 1974, с. 204-207.

10. Дорофеюк А.А. Алгоритмы автоматической классификации. — Автоматика и телемеханика, 1971, № 12, с. 78-113.

11. Дуда Р., Харт П. Распознавание образов и анализ сцен. — М.: Мир, 1976. 511 с.

12. Елкина В.Н., Загоруйко Н.Г. Об алфавите объектов распознавания. — В кн.: Вычислительные системы. Новосибирск, 1966, вып.22, с. 59-76.

13. Енюков И.С. Выбор набора признаков с максимальной дискриминантной способностью при наличии обучающей выборки конечного объема. В кн.: Многомерный статистический анализ в социально-экономических исследованиях. — М.: Наука, 1974, с.394-397.

14. Епанечников В.А. Непараметрическая оценка многомерной плотности вероятности. — Теория вероятностей и ее применение, 1969, т.14, Ш I, с. I56-I6I.

15. Жемайтите Д., Каукенас И., Кусас В., Ожерайтис Э, Телькснис JI., Юшкявичюс К. Система автоматизированного анализа ритмо-грамм. — В кн.: Статистические проблемы управления. Вильнюс, 1980, вып.49, с. 9-41.

16. Загоруйко Н.Г. Методы распознавания и их применение. — М.: Сов.радио, 1972. 206 с.

17. Загоруйко Н.Г., Лозовский B.C. Подстройка под диктора при распознавании ограниченного набора устных команд. — В кн.: Вычислительные системы. Новосибирск, 1967, вып.28, с.95-103.

18. Ковалевский В.А. Методы оптимальных решений в распознавании образов. — М.: Наука, 1976. 328 с.

19. Крамер Г. Математические вопросы статистики. — 2-е изд., стереотипное. — М.: Мир, 1975. 648 с.

20. Лбов Г.С. Методы обработки разнотипных экспериментальных данных. Новосибирск: Наука, 1981. - 160 с.

21. Лукстина Л.А., Панченко Л.М., Федорова Р.Н., Широкова А.И. Библиотека программ на ФОРТРАНе и автокоде МАДЛЕН для БЭСМ-6.

22. Дубна: Объединенный институт ядерных исследований, 1978.- 253 с.

23. Матросов В.Л. Корректные алгебры ограниченной емкости над множеством алгоритмов вычисления оценок. — Журнал вычислительной математики и математической физики, 1981, т.21, № 5, с. I276-1291.

24. Мешалкин Л.Д., Сердобольский В.И. Ошибки при классификации многомерных наблюдений. — Теория вероятностей и ее применения, т.23, № 4, 1978, с. 772-781.

25. Миленький А.В. Классификация сигналов в условиях неопределенности. — М.: Советское радио, 1975. 328 с.

26. Мясников Л.Л., Мясникова Е.Н. Автоматическое распознавание звуковых образов. Л.: Энергия, 1970. - 183 с.

27. Нильсон Н. Обучающиеся машины. М.: Мир, 1967. - 180 с.

28. Оуэн Д.Б. Сборник статистических таблиц. — М,: Вычислительный центр АН СССР, 1973. 586 с.

29. Пикялис В. Ошибки линейного классификатора с независимыми признаками при малом объеме обучающей выборки. В кн.: Статистические проблемы управления. Вильнюс, 1973, вып.5, с. 69-101.

30. Рамишвили Г.С. К выбору решающих функций. — В кн.: Автоматическое управление. Тбилиси, 1971, т.10, № I, с. 69-77.

31. Рамишвили Г.С., Квирия Д.А. Реализация одного способа выделения подклассов при распознавании образов. — Сообщения Академии наук Грузинской ССР, 1971, т.61, № 2, с. 409-412.

32. Раудис 1Д.Ю. Исследование зависимости вероятности ошибки классификации от объема обучающей выборки. Ин-т физики и математики АН Литовской ССР. Деп. в ВИНИТИ, № 1318, 1969. 18 с.

33. Раудис Ш. Об объеме обучающей выборки классификатора опознающего устройства. — В кн.: Обнаружение и распознавание. Планирование экспериментов. М.: Наука, 1970, с. 64-76.

34. Раудис Ш.Ю. 0 количестве априорной информации при построении алгоритма классификации. — Изв. АН СССР. Техническая кибернетика, 1972, № 4, с. 168-174.

35. Раудис Ш.Ю. Оценка вероятности ошибки классификации. — В кн.: Статистические проблемы управления. Вильнюс, 1973, вып.5,с. 9-44.

36. Раудис Ш. Алгоритмы построения правила классификации. (Обзор). — В кн.: Статистические проблемы управления. Вильнюс, 1975, вып.II, с. 11-52.

37. Раудис Ш.Ю. Ошибки классификации квадратичной дискриминант-ной функции. — В кн.: Статистические проблемы управления. Вильнюс, 1976, вып.14, с. 33-47.

38. Раудис Ш.Ю. Исследование непараметрического классификатора при ограниченных выборках. — В кн.: Статистические проблемы управления. Вильнюс, 1976, вып.14, с. II7-I25.

39. Раудис Ш.Ю. Определение числа полезных признаков в задаче классификации. В кн.: Статистические проблемы управления. Вильнюс, 1976, вып.14, с. 137-149.

40. Раудис Ш. Ограниченность выборки в задачах классификации. — В кн.: Статистические проблемы управления. Вильнюс, 1976, вып.18, с. 5-183.

41. Раудис Ш.Ю. Статистическая классификация при существенно ограниченных выборках: Диссертация на соискание ученой степени доктора технических наук. Вильнюс, 1977. 323 с.

42. Раудис Ш., Пикялис В. Табулирование зависимости ожидаемой ошибки классификации линейной дискриминантной функции от объема обучающей выборки. В кн.: Статистические проблемы управления. Вильнюс, 1975, вып.II, с. 82-119.

43. Раудис Ш.Ю., Пикялис B.C., Юшкявичюс К.З. Экспериментальное сравнение тринадцати алгоритмов классификации. — В кн.: Статистические проблемы управления. Вильнюс, 1975, вып.II, с. 53-80.

44. Раудис Ш., Пикялис В., Юшкявичюс К. Система оперативной разработки распознающих алгоритмов (СОРРА). — В кн.: Статистические проблемы управления. Вильнюс, 1978, вып.27, с.9-21.

45. Раудис Ш., Юшкявичюс К., Чепонис К., Урба К., Плаушка К., Каукенас И., Вайтукайтис В., Пикялис В., Грабаускас В., Пиво-рюнас В. Программные модули пакета СОРРА-2. — В кн.: Статистические проблемы управления. Вильнюс, 1982, вып.58, с. 2747.

46. Серых А.П. Об использовании непараметрических оценок плотности в задачах распознавания образов. Тр. Сибирск. физ.-техн. ин-та им.В.Д.Кузнецова, 1973, вып.63, с. 13-41.

47. Сироджа И.Б. Системный синтез структурно-аналитических алгоритмов распознавания образов для автоматизации классификационной обработки данных (КОД). — В кн.: Математические методы анализа динамических систем. Харьков, 1978, вып.2, с. 79-102.

48. Троицкий Е.Б. Вероятности ошибок в линейной классификации. Труды МЕИС. М.: Связь, 1968, с. I06-II3.

49. Ту Дж., Гонсалес Р. Принципы распознавания образов. — М.: Мир, 1978. 411 с.

50. Фу К. Последовательные методы в распознавании образов и обучение машин. — М.: Наука, 1971. 256 с, 5-19.

51. Хо-ю-цзы, Агравала А.А. Об алгоритмах классификации образов (Введение и обзор). Труды ин-та инженеров по электротехнике и радиоэлектронике, 1968, т.56, № 12, с.

52. Шлезингер М.И. 0 самопроизвольном различении образов. — В кн.: Читающие автоматы. Киев: Наукова думка, 1965, с.38-45.

53. Шлезингер М.И. Взаимосвязь обучения и самообучения в распознавании образов. Кибернетика, 1968, № 2, с. 81-88.

54. Юшкявичюс K.3. Экспериментальное исследование классификатора, реализующего кусочно-линейное решающее правило. — В кн.: Статистические проблемы управления. Вильнюс, 1973, вып.5,с. 102-125.

55. Юшкявичюс К.З. Вычисление дисперсии оценок максимального правдоподобия средних компонент смеси многомерных нормальных распределений. В кн.: Статистические проблемы управления. Вильнюс, 1975, вып.II, с. I2I-I36.

56. Юшкявичюс К.З. К вопросу выбора числа эталонов при конструировании кусочно-линейного классификатора. — В кн.: Автоматизация ввода письменных знаков в ЦВМ: Тезисы докладов 1У Всесоюзной конференции. Каунас, 1977, т.1, с. 95-98.

57. Юшкявичюс К.З. Об одном методе описания данных в случае дискретных признаков. — В кн.: Статистические проблемы управления. Вильнюс, 1978, вып.27, с. 41-51.

58. Юшкявичюс К.З. Исследование чувствительности кусочно-линейного классификатора по минимуму расстояния к ограниченности объема обучающей выборки. В кн.: Статистические проблемы управления. Вильнюс, 1983, вып.61, с. 89-129.

59. Юшкявичюс К.З., Раудис Ш.Ю. Вычисление ожидаемой ошибки классификации для кусочно-линейного решающего правила. — В кн.: Статистические проблемы управления. Вильнюс, 1976, вып.14,с. 67-84.

60. Ball G.H., Hall D.J. A clustering technique for summarizing multivariate data. Behavioral Science, 1967, vol.12, Ho.3, p. 153-155.

61. Bowker A.H., Sitgreaves R. Asymptotic expansions for the distribution of the W-classification statistic. In: Studies in Item Analysis and Predication, H.Solomon, Ed. Stanford, Calif.: Stanford Univ. Press, 1961, p. 293-311.

62. Chang C.L. Pattern recognition by piecewise linear discriminant functions. IEEE Trans, on Computers, 1973, vol. C-22, Ко.9, p. 859-862.

63. Cover Ш.М., Hart P.E. Nearest neighbor pattern classification. IEEE Trans, on Information Theory, 1967, vol. IT-13, No.1, p. 21-27.

64. Day N.E. Estimating the components of a mixture of normal distributions Biometrika, 1969, vol.56, No.3, p. 463-474.

65. Duda R.O., Fossum H. Pattern classification by iteratively determined linear and piecewise linear discriminant functions IEEE Trans, on Electronic Computers, 1966, vol.EC-15, No.2, p.220-232.

66. Duinn R.P.W. On the accuracy of statistical pattern recognition. Ph.D. dissertation, Dutch Efficiency Bureau, Pij-nacker, 1978, - 127 p.

67. Estes S.E. Measurement selection for linear dicriminant used in pattern classification. Ph.D. dissertation, Stanford Univ., Stanford, Calif., 1965.

68. Fix E., Hodges J.L.Jr. Discriminatory analysis: nonparamet-ric discrimination: consistency properties. Report N0.4, Randolph Field, Texas: USAF School of Aviation Medicine, 1951.

69. Foley D.H. Considerations of sample and feature size. IEEE Trans, on Information Theory, vol.IT-18, Wo.5, 1972, p. 618626.

70. Fukunaga K., Koontz L.G.W. A criterion and an algorithm for grouping data. IEEE Trans, on Computers, 1970, vol.C-19, No.10, p. 917-923.

71. Fukunaga K., Short R.D. Generalized clustering for problem localization. IEEE Trans, on Computers, 1978, vol.C-27, No.2, p. 176-181.

72. Hartigan J.A. Clustering algorithms. New York-London-Sydney-Toronto: John Wiley and Sons, Inc., 1975, - 351 p.

73. Highleyman W.H. The design and analysis of pattern recognition experiments. Bell System Technical Journal, 1962, vol.41, No.3, p. 723-744.

74. Hughes G.F. on the mean accuracy of statistical pattern recognizers. IEEE Trans, on Information Theory, 1968, vol. IT-14, No.1, p. 55-63.

75. John S. Errors in discrimination. Ann.Math.Statist., 1961, vol.32, No.3, p. 1122-1144.

76. Kanal L., Chandrasekaran B. On dimensionality and sample size in statistical pattern classification. Pattern Recognition, 1971, vo.3, p. 225-234.

77. Lachenbruch P.A. On expected probabilities of misclassifi-cation in discriminant analysis, necessary sample size and a relation with the multiple correlation coefficient. -Biometrics, 1968, vol.24, No.4, p. 823-834.

78. Lachenbruch P.A., Mickey M.R. Estimation of error rates in discriminant analysis. Technometrics, 1968, vol.10, No.1, p. 1-11.

79. Mangasarian O.L. Multisurface method of pattern separation.- IEEE Trans, on Information Theory, 1968, vol.IT-14, No.6, p. 801-807.

80. Moran M.A. On the expectation of errors of allocation associated with a linear discriminant function. Biometrika, 1975, vol.62, No.1, p. 141-148.

81. Okamoto M. An asymptotic expansion for the distribution of the linear discriminant function. Ann.Math.Statist., 1963, vol.34, No.4, p. 1286-1301.

82. Owen D.B. Tables for computing bivariate normal probabilities. Annals of Mathematical Statistics, 1956, vol.27, p. 1075-Ю90.

83. Raudys 3. On dimensionality, learning sample size and complexity of classification algorithms. In: Proceedings of the 3rd International Joint Conference on Pattern Recognition. Coronado, 1976, p. 166-169.

84. Raudys S., Pikelis V. On dimensionality, sample size, classification error and complexity of classification algorithmin pattern recognition. IEEE Trans, on Pattern Analysis and Machine Intelligence, 1980, vol.PAMI-2, No.3, p. 242252.

85. Rosen C.A., Hall D.I. A pattern recognition experiment with near-optimum results. IEEE Trans, on Electronic Computers (Correspondence), 1966, vol.EC-15, N0.4, p. 666-667.

86. Sebestyen Decision-making process in pattern recognition.- Hew York: Macmillan Co., 1962. 162 p.

87. Sebestyen G.S. Pattern recognition by an adaptive process of sample set construction. IRE Trans, on Information Theory, 1962, vol.IT-18, No.9, p. 82-91.- 174

88. Sitgreaves R. Some results on the distribution of the W-clas-sification statistic. In: Studies in Item Analysis and Prediction, Stanford, H.Solomon, Ed., Stanford, Calif.: Stanford Univ.Press, 1961, p. 241-251.

89. Sklansky J., Michelotti L. Locally trained piecewise linear classifiers. IEEE Trans, on Pattern Analysis and Machine Intelligence, 1980, vol.PAMI-2, No.2, p. 101-111.

90. Smith F.W. Small-sample optimality of design techniques for linear classifiers of Gaussian patterns. IEEE Trans, on Information Theory, vol.IT-18, No.1, 1972, p. 118-126.

91. Specht D.F. Series estimation of a probability density function. Technometrics, 1971, vol.13, Ho.2, p. 409-424.

92. Stark L., Qkajlma M., Whipple G.H. Computer pattern recognition techniques: Electrocardiographic diagnosis. Commun. Assoc.Сотр.Mach., 1962, Ко.6, p. 527-532.

93. Steck G.P. A table for computing trivariate normal probabilities. Annals of Mathematical Statistics, 1958, vol.29, p. 780-800.

94. Trampisch H.I. On the performance of some classification rules for qualitative data for simulated underlying distributions. Biometrical Journal, 1983, vol.25, No.7, p. 689-699.

95. Wolfe J.H. Pattern clustering by multivariate mixture analysis Multivariate Behavioral Research, 1970, vol.5, July, p. 329-350.

96. Young T.Y., Calvert T.W. Classification, estimation and pattern recognition. Hew York: American Elsevier Publishing Company, Inc., 1974» - 366 p.

Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.