Самоконфигурируемые эволюционные алгоритмы моделирования и оптимизации тема диссертации и автореферата по ВАК РФ 05.13.01, кандидат технических наук Семенкина, Мария Евгеньевна

  • Семенкина, Мария Евгеньевна
  • кандидат технических науккандидат технических наук
  • 2012, Красноярск
  • Специальность ВАК РФ05.13.01
  • Количество страниц 203
Семенкина, Мария Евгеньевна. Самоконфигурируемые эволюционные алгоритмы моделирования и оптимизации: дис. кандидат технических наук: 05.13.01 - Системный анализ, управление и обработка информации (по отраслям). Красноярск. 2012. 203 с.

Оглавление диссертации кандидат технических наук Семенкина, Мария Евгеньевна

ВВЕДЕНИЕ.

Глава 1. Разработка и исследование эффективности модифицированных операторов рекомбинации с селективным давлением для эволюционных алгоритмов.

1.1 Обзор эволюционных алгоритмов.

1.2 Описание основных особенностей генетических алгоритмов.

1.3 Основные особенности алгоритма генетического программирования.

1.4 Оператор равномерного скрещивания с селективным давлением для генетического алгоритма.

1.5 Оператор равномерного скрещивания с селективным давлением для алгоритма генетического программирования.

1.6 Программная реализация алгоритмов с модифицированным оператором множественной рекомбинации.

1.7 Тестирование алгоритмов.

ВЫВОДЫ.

Глава 2. Разработка, реализация и исследование эффективности метода самоконфигурирования эволюционных алгоритмов.

2.1. Описание метода самоконфигурирования для эволюционных алгоритмов.

2.2. Программная реализация самоконфигурируемых алгоритмов.

2.3. Тестирование разработанных алгоритмов.

ВЫВОДЫ.

Глава 3. Разработка и исследование самоконфигурируемых эволюционных алгоритмов для автоматического генерирования нейросетевых моделей.

3.1 Обзор зарождения и развития нейросетевых технологий.

3.2. Алгоритм генетического программирования для автоматического генерирования структур нейронных сетей.

3.3. Программная реализация алгоритмов генетического программирования для автоматического генерирования нейронных сетей.

3.4. Тестирование самоконфигурируемого алгоритма генетического программирования для автоматического генерирования ИНС.

ВЫВОДЫ.

Глава 4. Эволюционные методы создания ансамблей.

4.1 Обзор методов создания ансамблей.

4.2 Эволюционный алгоритм автоматического порождения коллективов интеллектуальных информационных технологий.

4.3 Программная реализация алгоритмов принятия решений при помощи ансамбля интеллектуальных информационных технологий.

4.4. Тестирование ансамблей.

ВЫВОДЫ.

Глава 5. Практическая реализация.

5.1 Решение задачи выбора эффективного варианта аппаратно-программного комплекса для систем управления космическими аппаратами.

5.2 Задача моделирования системы подавления шума.

5.3 Описание решенных задач анализа данных: классификации, аппроксимации и прогнозирования.

5.4 Результаты решения задач анализа данных отдельными ИИТ.

5.5 Решение задач анализа данных с помощью ансамблей интеллектуальных информационных технологий.

ВЫВОДЫ.

Рекомендованный список диссертаций по специальности «Системный анализ, управление и обработка информации (по отраслям)», 05.13.01 шифр ВАК

Введение диссертации (часть автореферата) на тему «Самоконфигурируемые эволюционные алгоритмы моделирования и оптимизации»

Актуальность. В настоящее время интеллектуальные системы обработки информации получили широкое распространение в различных областях человеческой деятельности. Искусственные нейронные сети (ИНС), системы на нечеткой логике, символьная регрессия, эволюционные алгоритмы и другие интеллектуальные информационные технологии (ИИТ) способны решать сложные задачи обработки информации, с которыми не справляются классические методы. Во многих случаях полезным подходом является гибридизация, когда в систему обработки информации включаются несколько ИИТ, в том числе и различных типов. Данный подход становится все более распространенным с ростом производительности вычислительной техники.

Однако, разработка и настройка даже одной ИИТ - нетривиальная задача. Проектирование и разработка коллектива ИИТ с необходимыми свойствами - задача на порядок сложнее. Для ее решения необходим эффективный инструментарий.

Таким инструментарием могут быть алгоритмы эволюционного поиска, наиболее известными из которых являются генетический алгоритм (ГА) и алгоритм генетического программирования (ГП).

Генетический алгоритм является эффективной процедурой решения сложных задач оптимизации. Он ищет решение в гиперкубе, определяемом бинарной строкой, которой кодируется это решение. Задача ГА - определить, какая (какие) точка гиперкуба доставляют экстремум целевой функции. ГП отличается тем, что генотип индивида представлен не линейно (в виде бинарной строки, или массива чисел), а в виде иерархической структуры -дерева. Исследователь не ограничивает пространство поиска, а только определяет элементы и связи, при помощи которых строятся решения. Элементы, объединяясь в иерархические структуры, порождают системы с новыми (эмерджентными) свойствами, которые изначально не предполагались исследователем. Поэтому ГП является одним из наиболее привлекательных инструментов поиска и адаптации в пространстве сложных структур.

Однако эффективное применение ГА и ГП требует глубокого знания теории эволюционного поиска, что ограничивает их распространение на практике. Конечный пользователь должен обладать навыками определения эффективных настроек и параметров ГП и ГА (типы селекции и рекомбинации, уровень мутации, критерий останова и т.д.). Снятие данного ограничения позволило бы существенно расширить аудиторию пользователей ГП и ГА. Одним из решений этой проблемы является разработка самонастраивающихся алгоритмов, которые самостоятельно адаптируется под решаемую задачу, выбирают эффективные настройки и определяют параметры. В этой связи разработка и исследование новых алгоритмических схем для автоматизации проектирования ИИТ с помощью эволюционных алгоритмов является актуальной научно-технической задачей.

Цель диссертационной работы состоит в повышении обоснованности принятия решений при применении интеллектуальных технологий обработки информации за счет автоматизации их проектирования с использованием самоконфигурируемых эволюционных алгоритмов.

Сформулированная цель предопределила следующую совокупность решаемых задач:

1. Разработать генетический алгоритм для эффективной оптимизации в дискретных пространствах;

2. Разработать алгоритм генетического программирования, решающий задачи символьной регрессии, для эффективного поиска на дискретных структурах;

3. Разработать алгоритм генетического программирования для автоматического генерирования нейронных сетей произвольной архитектуры;

4. Разработать подход для автоматического выбора настроек и параметров эволюционных алгоритмов в ходе решения задачи.

5. Разработать процедуру принятия решений коллективом ИИТ для повышения эффективности моделирования сложных систем и процессов;

6. Реализовать разработанные подходы в виде программных систем;

7. Проверить работоспособность предложенных подходов на тестовых и реальных задачах анализа данных.

Методы исследования. В данной работе использовались методы эволюционных вычислений, нейросетевого моделирования, оптимизации, символьной регрессии, теории вероятности и математической статистики, системного анализа, методика разработки интеллектуальных информационных систем и другие.

Научная новизна работы заключается в следующем:

1. Разработан, реализован и исследован модифицированный оператор равномерной рекомбинации для генетического алгоритма оптимизации, отличающийся от известных наличием селективного давления на этапе скрещивания и позволяющий повысить эффективность работы алгоритма.

2. Разработан, реализован и исследован новый оператор равномерной рекомбинации для алгоритма генетического программирования, отличающийся от известных способом формирования потомка и наличием селективного давления на этапе скрещивания и позволяющий повысить эффективность работы алгоритма.

3. Разработан, реализован и исследован новый метод самоконфигурирования эволюционных алгоритмов моделирования и оптимизации, отличающийся от известных способом адаптивного выбора эффективных генетических операторов в ходе решения задачи и позволяющий сократить вычислительные затраты без снижения точности и надежности.

4. Разработан, реализован и исследован новый эволюционный алгоритм автоматического генерирования нейросетевых моделей, отличающийся от известных методом формирования структуры нейронных сетей и позволяющий редуцировать их размеры без снижения эффективности.

5. Разработан, реализован и исследован новый эволюционный алгоритм построения гетерогенных ансамблей интеллектуальных информационных технологий, отличающийся от известных способом выбора членов коллектива из предварительного набора и методом формирования коллективного решения и позволяющий повысить эффективность решения задач обработки информации.

Теоретическая значимость результатов диссертационного исследования состоит в разработке новых эволюционных алгоритмов моделирования и оптимизации, основанных на модификации равномерного скрещивания, позволяющей эффективнее использовать генетическую информацию за счет увеличения селективного давления, и методе самоконфигурирования, позволяющем автоматически выбирать эффективные настройки в ходе решения задачи за счет адаптации вероятностей применения генетических операторов.

Практическая ценность. Разработанные самоконфигурируемые эволюционные алгоритмы моделирования и оптимизации позволяют экономить время и вычислительные ресурсы при выборе их настроек, не снижая при этом эффективности их применения конечным пользователем.

Разработанная процедура коллективного принятия решений позволяет использовать полезные свойства нескольких методов при решении практических задач анализа данных и не требует от конечного пользователя экспертных знаний в области эволюционного моделирования и оптимизации.

В ходе выполнения работы успешно решены задачи анализа данных из области техники, медицины, банковского скоринга, компьютерной безопасности и распознавания речи.

Реализация результатов работы. Разработанные алгоритмы использованы при выполнении исследований в рамках российско-германских проектов 2011-1.9-519-005-042 «Распределенные интеллектуальные информационные системы обработки и анализа информации в диалоговых информационно-коммуникационных системах» ФЦП «Исследования и разработки по приоритетным направлениям развития научно-технологического комплекса России на 2007-2013 годы (с участием научных и исследовательских организаций стран Европейского Союза)» (ГК №11.519.11.4002) и 2011-1.2.1-113-025-002 «Математическое и алгоритмическое обеспечение автоматизированного проектирования аппаратно-программных комплексов интеллектуальной обработки информации в распределенных высокопроизводительных системах космического назначения» ФЦП «Научные и научно-педагогические кадры инновационной России на 2009-2013 годы (с участием научно-исследовательских и научно-образовательных организаций Германии)» (ГК № 16.740.11.0742). Кроме того, данная работа была поддержана молодежными инновационными грантами Сибирского федерального университета 2007-2009 гг. и Фондом содействия развитию малых форм предприятий в научно-технической сфере в рамках программы «Участник молодежного научно-инновационного конкурса» (У.М.Н.И.К.).

Две программные системы прошли государственную экспертизу и были зарегистрированы во ВНТИЦ, три программные системы зарегистрированы в Роспатенте.

Разработанные в диссертации программные системы используются в учебном процессе Института информатики и телекоммуникаций СибГАУ при выполнении лабораторных и курсовых работ и, кроме того, переданы для использования в две инновационные 1Т-компании.

Основные положения выносимые на защиту: 1. Разработанный генетический алгоритм оптимизации с модифицированным оператором множественной рекомбинации превосходит стандартный генетический алгоритм по надежности и быстродействию.

2. Новые операторы равномерного скрещивания в алгоритме генетического программирования по надежности сравнимы со стандартным и превосходят одноточечное скрещивание и предотвращают чрезмерное усложнение решений.

3. Эволюционный алгоритм автоматического генерирования нейронных сетей является эффективным средством построения нейросетевых моделей произвольной структуры.

4. Разработанный способ самоконфигурации эволюционных алгоритмов позволяет избегать затрат на их настройку, не снижая при этом эффективности моделирования и оптимизации.

5. Предложенная процедура принятия решения коллективом ИИТ является эффективным средством повышения точности моделирования сложных систем и процессов.

Апробация работы. Процесс разработки алгоритмов и результаты проведенных исследований докладывались в период 2006-2012 гг. на 24 конференциях различного уровня, среди которых 6 зарубежных, 6 международных, 4 всероссийских с международным участием и 8 молодежных научных конференций, в том числе: Biologically Inspired Optimization Methods and Applications (Bohinj, Slovenia, 2012), Advances in Swarm Intelligence (Shenzhen, China, 2012), Informatics in Control, Automation and Robotics (Rome, Italy, 2012), Congress on Evolutionary Computations of the IEEE World Congress on Computational Intelligence (Brisbane, Australia, 2012), Computational Intelligence in Security for Information Systems (Ostrava, Czech Republic, 2012), XII и XIII Национальные конференции по искусственному интеллекту с международным участием (г. Тверь, 2010, г. Белгород, 2012 гг.), XIII Международная научно-техническая конференция «Кибернетика и высокие технологии XXI века» (г. Воронеж, 2012), I и II Всероссийские научные конференции с международным участием «Теория и практика системного анализа» (г. Рыбинск, 2010, 2012 гг.), VII Всероссийская научно-практическая конференция с международным участием "Информационные технологии и математическое моделирование" (Томск, 2008), и др. Кроме того, отдельные результаты работы были обсуждены на научном семинаре института информационных технологий университета г. Ульм (Германия, 2011), а диссертация в целом обсуждалась на научных семинарах института проблем управления РАН имени В.А. Трапезникова (Москва, 2012) и института системного анализа РАН (Москва, 2012), а также на научно-техническом семинаре кафедры системного анализа и исследования операций СибГАУ.

Публикации. По материалам данной работы опубликовано более 25 печатных работ, в том числе 5 статей в научных изданиях Перечня ВАК.

Структура работы. Работа состоит из введения, пяти глав, заключения, списка литературы и шести приложений.

Похожие диссертационные работы по специальности «Системный анализ, управление и обработка информации (по отраслям)», 05.13.01 шифр ВАК

Заключение диссертации по теме «Системный анализ, управление и обработка информации (по отраслям)», Семенкина, Мария Евгеньевна

выводы

В данной главе были решены реальные задачи анализа данных из различных областей человеческой деятельности. Эти задачи анализа данных отличаются друг от друга не только областями человеческой деятельности, к которым они относятся, но и количеством входных и выходных переменных, характеристиками этих переменных (количественные или качественные), размерами баз данных (малые, большие и сверх большие), количеством пропусков в данных (есть или нет), типами задач (классификация, аппроксимация, прогнозирование). Сравнение результатов, полученных алгоритмами, разработанными в диссертации, на решеных задачах, с результатами известных аналогов статистически достоверно показало, что предложенные (в главах 1-4) алгоритмы являются эффективным средством решения задач интеллектуального анализа данных.

Так как эволюционные алгоритмы, разработанные в диссертации, продемонстрировали высокую работоспособность не только на репрезентативном множестве тестовых задач, но и на реальных задачах анализа данных из различных областей человеческой деятельности, это позволяет рекомендовать их конечным пользователям в качестве удобного и эффективного инструмента интеллектуального анализа данных.

Таким образом, за счет автоматизации проектирования интеллектуальных информационных технологий при помощи эволюционных алгоритмов была повышена обоснованность принятия решений при использовании ИИТ конечными пользователями, не являющимися экспертами в области интеллектуального анализа данных. Обоснованность же принятия решений при применении эволюционных алгоритмов не специалистами в области эволюционных вычислений была повышена за счет автоматизации выбора настроек алгоритмов.

В связи с этим можно утверждать, что цель диссертационного исследования полностью достигнута.

ЗАКЛЮЧЕНИЕ

В ходе выполнения диссертационной работы получены следующие результаты:

• Разработаны новые операторы равномерного скрещивания для генетического алгоритма оптимизации и алгоритма генетического программирования, отличающиеся от известных наличием селективного давления на этапе рекомбинации и позволяющие повысить эффективность поиска решения.

• Разработан метод самоконфигурирования эволюционных алгоритмов, отличающийся способом адаптации настроек в ходе решения задачи и позволяющий автоматически выбирать эффективную структуру алгоритмов в ходе решения задачи.

• Для решения задач нейросетевого моделирования предложен модифицированный алгоритм генетического программирования, отличающийся способом формирования структуры нейронной сети.

Для решения задач символьной регрессии и нейросетевого моделирования реализованы гибридные эволюционные алгоритмы, сочетающие самоконфигурируемый алгоритм генетического программирования для выбора эффективных структур и самоконфигурируемый генетический алгоритм для настройки соответствующих параметров.

Разработана процедура автоматического генерирования гетерогенных коллективов интеллектуальных информационных технологий.

Эффективность разработанных подходов и выполненных модификаций продемонстрирована в ходе решения 10 реальных задач анализа данных из различных областей науки и техники.

Таким образом, в данной работе разработаны, реализованы и проверены на тестовых и прикладных задачах анализа данных новые алгоритмические схемы применения интеллектуальных информационных технологий, обладающие большей эффективностью по сравнению с известными подходами и позволяющие успешно решать широкий круг задач анализа данных, что является вкладом в теорию и практику интеллектуального анализа данных.

Список литературы диссертационного исследования кандидат технических наук Семенкина, Мария Евгеньевна, 2012 год

1. Архангельский, В.И., Богаенко, И.Н., Грабовский, Г.Г., Рюмшин, Н.А. Нейронные сети в системах автоматизации. К.: Техника, 1999. - 234 с.

2. Барский, А. Б. Нейронные сети: распознавание, управление, принятие решений / Барский А. Б. — М.: Финансы и статистика, 2004. — 176с.

3. Бокс, Дж. Анализ временных рядов, прогноз и управление. В 2-х т.: Пер. с английского / Дженкинс Г.М., Бокс Дж. М.: Издательство «Мир», 1974.-608с.

4. Бураков, C.B. Решение задачи Коши для обыкновенных дифференциальных уравнений методом генетического программирования / C.B. Бураков, Е.С. Семенкин // Журнал СФУ "Математика и физика" - Том 4, вып. 1.-2011 - С. 61-69.

5. Бухтояров, В.В. Эволюционные алгоритмы формирования коллективов нейронных сетей для решения задач моделирования и прогнозирования // Канд. техн. наук, 05.13.17. — СибГАУ, Красноярск, 2010.

6. Вороновский, Т.К., Махотило, К.В., Петрашев, С.Н., Сергеев С.А. Генетические алгоритмы, искусственные нейронные сети и проблемы виртуальной реальности. Харьков: Основа, 1997. См. также: http://neuroschool.narod.ru/books/gannvirt.html

7. Воронцов, К. В., Каневский, Д. Ю. Коэволюционный метод обучения алгоритмических композиций // Таврический вестник информатики и математики. 2005. - № 2. - С. 51-66.

8. Воронцов, К. В. О проблемно-ориентированной оптимизации базисов задач распознавания // ЖВМ и МФ. 1998. - Т. 38, № 5. - С. 870880.

9. Воронцов, К. В. Оптимизационные методы линейной и монотонной коррекции в алгебраическом подходе к проблеме распознавания // ЖВМ и МФ.-2000.-Т. 40, № 1.-С. 166-176.

10. Ю.Галушкин, А.И. Нейрокомпьютеры и их применение.: Учеб. пособие для вузов / Общая редакция А.И. Галушкина. М.: ИПРЖР, 2000.

11. Гилева, JI.B., Гилев, С.Е., Горбань, А.Н. Нейросетевой бинарный классификатор "CLAB" (описание пакета программ). Красноярск: Ин-т биофизики СО РАН. 1992. - 25 с. Препринт № 194Б.

12. Горбань, А.Н. Методы нейроинформатики. КГТУ, Красноярск, 1998. 205 с

13. Горбань, А.Н. Нейрокомпьютер, или Аналоговый ренессанс. Мир ПК. 1994. - № ю. - С. 126-130.

14. Горбань, А.Н. Обучение нейронных сетей. М.: изд. СССР-США СП «ParaGraph». 1990,- 160 с.

15. Горбань, А. Н., Дунин-Барковский, В. Л., Кирдин, А.Н. и др. Нейроинформатика//Новосибирск: Наука, 1998. 296с

16. Горбань, А.Н., Россиев, Д.А. Нейронные сети на персональном компьютере. Новосибирск: Наука. - 1996. - 276с.

17. Емельянов, В.В., Курейчик, В.В., Курейчик, В.М. Теория и практика эволюционного моделирования. М.: ФИЗМАТ ЛИТ, 2003.

18. Журавлёв, Ю. И. Непараметрические задачи распознавания образов // Кибернетика. 1976. - № 6.

19. Журавлёв, Ю. И. Об алгебраическом подходе к решению задач распознавания или классификации // Проблемы кибернетики. 1978. - Т. 33. -С. 5-68.

20. Журавлёв, Ю. И. Экстремальные алгоритмы в математических моделях для задач распознавания и классификации // Доклады АН СССР. Математика. 1976. - Т. 231, № 3.

21. Журавлёв, Ю. П., Рудаков К. В. Об алгебраической коррекции процедур обработки (преобразования) информации // Проблемы прикладной математики и информатики. 1987. - С. 187-198.

22. Загоруйко, Н.Г., Ёлкина, В.Н., Лбов, Г.С. Алгоритмы обнаружения эмпирических закономерностей. Новосибирск: Наука, 1985. - 110с.

23. Загоруйко, Н.Г., Ёлкина, В.Н., Тимеркаев, B.C. Алгоритм заполнения пропусков в эмпирических таблицах (алгоритм .ZET.) // Вычислительные системы. Новосибирск. 1975. - Вып. 61. Эмпирическое предсказание и распознавание образов. - С. 3-27.

24. Змеу, К.В., Марков, H.A., Шипитько, И.А., Ноткин, Б.С. Безмодельное прогнозирующее инверсное нейроуправление с регенерируемым эталонным переходным процессом // Интеллектуальные системы. 2009.-№3,-С. 109-117

25. Искусственный интеллект; В 3 кн. Кн.2 Модели и методы; Справочник / Под ред. Д.А. Поспелова. М.: Радио и связь. - 1990. - 304 с.

26. Искусственный интеллект; В 3 кн. Кн. 1. Системы общения и экспертные системы; Справочник / Под ред. Э.В. Попова. М.: Радио и связь. - 1990. -464с.

27. Итоги науки и техники: физические и математические модели нейронных сетей, том 1. М.: ВИНИТИ, 1990.

28. Каллан, Р. Основные концепции нейронных сетей.: Пер. с английского / Р. Каллан. М.: Издательство «Вильяме», 2001. - 287с.

29. Комарцова, Л.Г. Исследование алгоритмов обучения многослойного персептрона // Нейрокомпьютеры: Разработка и применение. М.: Радиотехника, 2002, № 12.

30. Комашинский, В.И. Нейронные сети и их применение в системах управления и связи / В.И. Комашинский, Д.А. Смирнов. М.: Горячая линия -Телеком, 2003.-94с.

31. Корнеев, Д.С. Использование аппарата нейронных сетей для создания модели оценки и управления рисками предприятия / UBS, 17 (2007), 81-102.

32. KyniH, A.I. 1нтеллектуальна щентифжащя та керування в умовах процеЫв збагачувально! технологи. Кривий Pir: КТУ, 2008. - 204 с.

33. Липинский, Л.В. Алгоритмы генетического программирования для формирования интеллектуальных информационных технологий: дис. канд. техн. наук /Л.В. Липинский Красноярск, 2006 - 168с.

34. Мазуров, В. Д. Комитеты системы неравенств и задача распознавания // Кибернетика. 1971. - № 3.

35. Мазуров, В. Д. Метод комитетов в задачах оптимизации и классификации. М.: Наука, 1990.

36. Минский, М., Пейперт, С. Персептроны. — М.: Мир, 1971. —261 с.

37. Нильсон, Н. Искусственный интеллект. М.: Мир. - 1973. - 270 с.42,Оссовский, С. Нейронные сети для обработки информации.: Пер. с польского И.Д. Рудинского. М.: Финансы и статистика, 2002. - 344 с.

38. Паклин, Н. Обучаем нейронную сеть генетическим алгоритмом. 2003. См. также: http://paklin.newmail.ru/mater/genenet.html

39. Питенко, А.А. Нейросетевой анализ в геоинформационных системах // Канд. техн. наук, 05.13.16. — КГТУ, Красноярск, 2000.

40. Растригин, Л. А., Эренштейн, Р. X. Коллективные правила распознавания. М.: Энергия, 1981. - Р. 244.

41. Редько, В.Г., Прохоров, Д.В. Нейросетевые адаптивные критики // VI Всероссийская научно-техническая конференция "Нейроинформатика-2004". Сборник научных трудов. Часть 2. М.: МИФИ, 2004. С. 77 - 84.

42. Рудаков, К. В., Воронцов, К. В. О методах оптимизации и монотонной коррекции в алгебраическом подходе к проблеме распознавания // Докл. РАН. 1999. - Т. 367, № 3. - С. 314-317.

43. Рутковская, Д. Нейронные сети, генетические алгоритмы и нечеткие системы: пер. с польск. / Д. Рутковская, М. Пилиньский, Л. Рутковский. М.: Горячая линия - Телеком, 2004.

44. Скляр, Б. Цифровая связь. Теоретические основы и практическое применение / Б. Скляр. М.: Диалектика, Вильяме, 2004.

45. Семенкин, Е.С. Поисковые методы синтеза систем управления космическими аппаратами / Е.С. Семенкин, О.Э. Семенкина, С.П. Коробейников. Красноярск: СИБУП, 1996. - 325 с.

46. Семенкин, Е.С., Семенкина, О.Э., Терсков, В.А. Методы оптимизации сложных систем. Красноярск: - Сибирский юридический институт МВД России, 2000. - 254 с.

47. Терехов, С.А. Гениальные комитеты умных машин // Научная сессия МИФИ-2007. IX всероссийская научно-техническая конференция «Нейроинформатика-2007»: Лекции по нейроинформатике. Часть 2. М.: мифи, 2007. - 148 с.

48. Терехов, В.А., Ефимов, Д.В., Тюкин, И.Ю. Нейросетевые системы управления: Учеб. пособие для вузов. М.: Высш. школа 2002. - 183 с.

49. Уоссермен, Ф. Нейрокомпьютерная техника / М.: Мир, 1992.

50. Хайкин, С. Нейронные сети: полный курс, 2-е издание.: Пер. с англ. / С. Хайкин М.: Издательский дом "Вильяме", 2006. - 1104с.

51. Хомич, A.B., Степанян, И.В., Карпищук, A.B. Диагностика хронического пылевого бронхита по данным акустической спирометрии с применением блочных нейрон-ных сетей // Информационные процессы, 2005, Том 5, № 5, с. 405-413.

52. Цой, Ю.Р., Спицын, В.Г. Эволюционный подход к настройке и обучению искусственных нейронных сетей // Электронный журнал "Нейроинформатика". 2006. - Т. 1, №1. - С. 34-61.

53. Черно дуб, А. Н., Дзюба, Д. А. Обзор методов нейроуправления // Проблемы программирования. — 2011. — No 2. — С. 79-94.

54. Чубукова, И.A. Data Mining БИНОМ / Лаборатория знаний, Интернет-университет информационных технологий ИНТУИТ.ру, 2008 -328 с.

55. Шугай, Ю.С.и др. Нейросетевые алгоритмы прогнозирования событий и поиска предвестников в многомерных временных рядах // Искусственный Интеллект, Донецк, 2004, № 2, с.211-215.

56. Шукович, Г. Применение генетических алгоритмов и систем генерирующих графов для создания модулярных нейросетей // Программирование, 2002, № 1, с. 13-20.

57. Alander, J. T. Indexed bibliography of genetic algorithms papers of 1996 / University of Vaasa, Department of Information Technology and Production Economics, Rep. 94-1-96, 1995, (ftp.uwasa.fi, cs/report94-l,ga96bib.ps.Z).

58. Altenberg, L. The evolution of evolvability in genetic programming. In: Advances in Genetic Programming. Cambridge, MA: MIT Press, 1994, pp. 47-74.

59. Armitage, W.D., Lo, J. C. Enhancing the robustness of a feedforward neural network in the presence of missing data, Proc. of the IEEE ICNN, Orlando, FL, USA. 1994 June. - Vol.2. - P.836-839.

60. Atmar, J. W. Speculation on the evolution of intelligence and its possible realization in machine form // Ph.D. dissertation, New Mexico State Univ., Las Cruces, 1976.

61. Angeline, P.J. Adaptive and self-adaptive evolutionary computations / In: Palaniswami M. and Attikiouzel Y. (Eds.) Computational Intelligence: A Dynamic Systems Perspective, pages 152-163. IEEE Press, 1995.

62. Angeline, P. J., Saunders, G. M., Pollack, J. B. An evolutionary algorithm that constructs recurrent neural networks / IEEE Trans. Neural Networks, vol. 5, no. 1, pp. 54-65, 1994.

63. Ashby, W. R. Design for a Brain. — New York: Wiley, 1952. — 306 p.

64. Baeck, T. Optimal mutation rates in genetic search. In: Proc. 5th Int. Conf. on Genetic Algorithms, S. Forrest, Ed. San Mateo, CA: Morgan Kaufmann, 1993, pp. 2-8.

65. Baeck, T., Fogel, D. B., Michalewicz, Z. (Eds.) Handbook of Evolutionary Computation. New York: Oxford Univ. Press and Institute of Physics, 1997.

66. Baeck T., Hammel U., and Schwefel H.-P. Evolutionary Computation: Comments on the History and Current State / IEEE Transactions On Evolutionary Computation, Vol. 1, No. 1. 1997.

67. Baeck, T., Heistermann, J., Kappler, C., Zamparelli, M. Evolutionary algorithms support refueling of pressurized water reactors. In: Proc. 3rd IEEE Conference on Evolutionary Computation. Piscataway, NJ: IEEE Press, 1996, pp. 104-108.

68. Balakrishan, K., Honavar, V. Evolutionary Design of Neural Architectures A Preliminary Taxonomy and Guide to Literature. Technical

69. Report CS TR #95-01. Iowa State Uni-versity, 1995. See also: http ://www.cs .iastate. edu/~gannadm/homepage.html

70. Bashkirov, O. A., Bravermann, E. M., Muchnik, I. B. Potential function algorithms for pattern recognition learning machines // Automation and Remote Control. — 1964. — N 25. — P. 629—631.

71. Bauer, E., Kohavi, R. An empirical comparison of voting classification algorithms: Bagging, boosting, and variants // Machine Learning. 36 (1999) pp. 105-142. URL: http://citeseer.ist.psu.edu/bauer99empirical.html

72. Belew, R. K., Mclnerney, J., Schraudolph, N. N. Evolving networks: Using the genetic algorithm with connectionist learning // Artificial Life II, 1992, pp. 511-547.

73. Beyer, H.-G. Some aspects of the 'evolution strategy' for solving TSPlike optimization problems appearing at the design studies of a 0.5 TeV e, +, -- linear collider. In: Parallel Problem Solving from Nature 2. Amsterdam: Elsevier, 1992, pp. 361-370.

74. Bishop, C.M. Theoretical foundation of neural networks. Aston Univ., UK Tech.Rep.NCRG-96-024, Neural computing research group. -1996. 8p.

75. Blanton, J. L., Wainwright, R. L. Multiple vehicle routing with time andtlicapacity constraints using genetic algorithms. In: Proc. 5 Int. Conf. on Genetic Algorithms. San Mateo, CA: Morgan Kaufmann, 1993, pp. 452^59.

76. Bohr, H., Bohr, J., Brunak, S., Cotterill, R. M. J., Lautrup, B., Ndrskov, L., Olsen, O. H., Petersen, S. B. Protein secondary structure and homology by neural networks / Fed. European Biochem. Soc. Lett., vol. 241, pp. 223-228, 1988.

77. Box, G. E. P. Evolutionary operation: A method for increasing industrial productivity / Appl. Statistics, vol. VI, no. 2, pp. 81-101, 1957.

78. Bramlette, M. F., Bouchard, E. E. Genetic algorithms in parametric design of aircraft. In: Handbook of Genetic Algorithms. New York: Van Nostrand Reinhold, 1991, ch. 10, pp. 109-123.

79. Breiman, L. Arcing classifiers // The Annals of Statistics. 1998. - Vol. 26, no. 3,-Pp. 801-849.

80. Breiman, L. "Bagging predictors / Machine Learning, vol. 24 (2), pp. 123-140, 1996.

81. Bremermann, H. J. Optimization through evolution and recombination // Self-Organizing Systems, M. C. Yovits et al., Eds. Washington, DC: Spartan, 1962.

82. Bremermann, H. J., Rogson, M., Salaff, S. Global properties of evolution processes. In: Natural Automata and Useful Simulations, H. H. Pattec, E. A. Edelsack, L. Fein, and A. B. Callahan, Eds. Washington, DC: Spartan, 1966, ch. 1, pp. 3-41.

83. Broomhead, D. S., Lowe, D. Multivariate functional interpolation and adaptive networks // Complex Systems. — 1988. —N2. — P. 321—355.

84. Bruns, R. Direct chromosome representation and advanced genetic operators for production scheduling. In: Proc. 1st Annu. Conf. on Evolutionary Programming. San Diego, CA: Evolutionary Programming Society, 1992, pp. 352359.

85. Bukhtoyarov, V., Semenkin E., Shabalov A.: Neural Networks Ensembles Approach for Simulation of Solar Arrays Degradation Process. In: Hybrid Artificial Intelligent Systems. Lecture Notes in Computer Science. -Volume 7208. Pp. 186-195. (2012)

86. Bukhtoyarov, V., Semenkina, O. Comprehensive evolutionary approach for neural net-work ensemble automatic design. In: Proceedings of the IEEE World Congress on Computational Intelligence, Barcelona, Spain, 2010. Pp. 1640-1645.

87. Burgin, G. H. On playing two-person zero-sum games against nonminimax players / IEEE Trans. Syst. Sci. Cybern., vol. SSC-5, no. 4, pp. 369370, Oct. 1969.

88. Burgin, G. H. Systems identification by quasilinearization and evolutionary programming // J. Cybern., vol. 3, no. 2, pp. 56-75, 1973.

89. Chen, C.-C., Miikkulainen, R. Creating Melodies with Evolving Recurrent Neural Networks // Proceedings of the 2001 International Joint

90. Conference on Neural Networks (IJCNN-01). Piscataway, NJ: IEEE, 2001. P. 2241-2246.

91. Cowan, J. D. A Mathematical Theory of Central Nervous Activity: Ph. D. Thesis. — University of London, UK, 1967. —178 p.

92. Cho, S., Shimohara, K. Modular Neural Networks Evolved by Genetic Programming / Proceedings of the 1996 IEEE International Conference on Evolutionary Computation, Vol. 1, pp. 681-684, 20-22 May 1996.

93. Cox, L. A., Davis, L., Qiu, Y. Dynamic anticipatory routing in circuit-switched telecommunications networks. In: Handbook of Genetic Algorithms. New York: Van Nostrand Reinhold, 1991, ch. 11, pp. 109-143.

94. Cunningham, P. Stability problems with artificial neural networks and the ensemblesolution / J. Carney, P. Cunningham, S. Jacob // Artificial Intelligence in Medicine 20 (3) (2000) 217-225.

95. Davis, L. Handbook of Genetic Algorithms / New York: Van Nostrand Reinhold, 1991.

96. Davis, L., Orvosh, D., Cox, A., Qiu, Y. A genetic algorithm for survivable network design. In: Proc. 5th Int. Conf. on Genetic Algorithms. San Mateo, CA: Morgan Kaufmann, 1993, pp. 408^115.

97. Deb, K., Anand, A., Joshi, D. A Computationally Efficient Evolutionary Algorithm for Real-Parameter Optimization. KanGAL Report No.2002003. Indian Institute of Technology, Kanpur, 2002. See also: http://www.iitk.ac.in/kangal/

98. De Jong, K. A. An analysis of the behavior of a class of genetic adaptive systems / Ph.D. dissertation, Univ. of Michigan, Ann Arbor, 1975, Diss. Abstr. Int. 36(10), 5HOB, University Microfilms no. 76-9381.

99. De Jong, K. A Are genetic algorithms function optimizers? // Parallel Problem Solving from Nature 2. Amsterdam, The Netherlands: Elsevier, 1992, pp. 3-13.

100. De Jong, K. A. Evolutionary computation: Recent developments and open issues. In: 1st Int. Conf. on Evolutionary Computation and Its Applications,

101. E. D. Goodman, B. Punch, and V. Uskov, Eds. Moskau: Presidium of the Russian Academy of Science, 1996, pp. 7-17.

102. De Jong, K. A Genetic algorithms are NOT function optimizers // Foundations of Genetic Algorithms 2. San Mateo, CA: Morgan Kaufmann, 1993, pp. 5-17.

103. De Jong, K. A On using genetic algorithms to search program spaces // Proc. 2nd Int. Conf. on Genetic Algorithms and Their Applications. Hillsdale, NJ: Lawrence Erlbaum, 1987, pp. 210-216.

104. De Jong, K.A., Spears W. On the Virtues of Parameterized Uniform Crossover. In: Proceedings of the 4th International Conference on Genetic Algorithms, Morgan Kaufmann, July, 1991.

105. D'Emilia, G., Marrab, A., Natalea, E. Use of neural networks for quick and accurate autotuning of PID controller // Robotics and Computer Integrated Manufacturing. - 2007. - Vol. 23. - P. 170 - 179.

106. Derakhshani, R. GETnet: A General Framework for Evolutionary Temporal Neural Net-works // Proceedings of International Joint Conference on Neural Networks. Montreal, Canada, 2005. pp. 3150-3155.

107. Dias, F.M., Mota, A.M. Comparison between Different Control Strategies using Neural Networks // 9th Mediterranean Conference on Control and Automation. Dubrovnik, Croatia, 2001.

108. Dietterich, T. G. An experimental comparison of three methods for constructing ensembles of decision trees: bagging, boosting, and randomization. In: Machine Learning, vol. 40, no. 2, pp. 139-158, 2000.

109. Dietterich, T. G., Bakiri, G. Error-correcting output codes: A general method for improving multiclass inductive learning programs. // In Proceedings of AAAI-91.- 1991.

110. Dimitrakakis, C., Bengio, S. Online Policy Adaptation for Ensemble Classifiers. IDIAP Research Report 03-69. (2006)

111. Eiben, A.E. Multiparent recombination in evolutionary computing. In: Ghosh A., Tsutsui S., Eds. Advances in Evolutionary Computing: Theory and Applications. Springer, Berlin, Heidelberg, New York, 2003, pp. 175-192.

112. Eiben, A.E., Hinterding, R., Michalewicz, Z. Parameter control in evolutionary algorithms. IEEE Transactions on Evolutionary Computation, 3(2):124-141, 1999.

113. Eiben, A.E, Schippers, C.A. Multi-parent's niche: n-ary crossovers onL

114. NK-landscapes. In: Voigt et al., Eds. Proceedings of the 4 Conference on Parallel Problems Solving from Nature, No. 1141 in Lectures Notes in Computer Science. Springer, Berlin, Heidelberg, New York, 1996, pp. 319-328.

115. Eiben A.E., Smith J.E. Introduction to Evolutionary Computing. -Springer Verlag Berlin, 2003. 299 p.

116. Eshelman, L. J., Schaffer, J. D. Crossover's niche. In: Proc. 5th Int. Conf. on Genetic Algorithms. San Mateo, CA: Morgan Kaufmann, 1993, pp. 9-14.

117. Eshelman, L. J., Schaffer, J. D. Productive recombination and propagating and preserving schemata. In: Foundations of Genetic Algorithms 3. San Francisco, CA: Morgan Kaufmann, 1995, pp. 299-313.

118. Fahlman, S.E., Lebiere, C. The cascade-correlation learning architecture / Touretzky D. S. (Ed.) Advances in Neural Information Processing Systems 2. San Mateo, CA: Morgan Kaufman Publishers. P. 524-532.

119. Ferariu, L., Burlacu, B. Graph genetic programming for hybrid neural networks design / International Joint Conference on Computational Cybernetics and Technical Informatics (ICCC-CONTI), pp. 547-552, May 2010.

120. Ferreira, C. Gene Expression Programming: Mathematical Modeling by an Artificial Intelli-gence. Angra do Heroismo, Portugal, 2002. See also: http://gene-expression-programming.com/GepBook/Introduction.html

121. Finck, S., et al.: Real-parameter black-box optimization benchmarking 2009: Presentation of the noiseless functions. Technical Report 2009/20, Researh Center PPE (2009)

122. Fiszelew, A., Britos, P., Perichisky, G., Garcia-Martinez R. Automatic Generation of Neural Networks based on Genetic Algorithms // Revista Eletronica de Sistemas de Informa-cao, 2003, Vol. 2, no. 1. См. также: http://citeseer.ist.psu.edu/

123. Fogarty, Т. С. Varying the probability of mutation in the genetic algorithm. In: Proc. 3rd Int. Conf. on Genetic Algorithms. San Mateo, CA: Morgan Kaufmann, 1989, pp. 104-109.

124. Fogel, D. B. An evolutionary approach to the traveling salesman problem // Biological Cybern., vol. 60, pp. 139-144, 1988.

125. Fogel, D. B. Evolving artificial intelligence // Ph.D. dissertation, Univ. of California, San Diego, 1992.

126. Fogel, D. B. Evolutionary Computation: Toward a New Philosophy of Machine Intelligence / Piscataway, NJ: IEEE Press, 1995.

127. Fogel, L. J. Autonomous automata / Ind. Res., vol. 4, pp. 14-19, 1962.

128. Fogel, L. J. On the organization of intellect / Ph.D. dissertation, University of California, Los Angeles, 1964.

129. Fogel, L. J., Owens, A. J., Walsh, M. J. Artificial Intelligence Through Simulated Evolution. New York: Wiley, 1966.

130. Forrest, S., Mitchell, M. What makes a problem hard for a genetic Algorithm? Some anomalous results and their explanation / Mach. Learn., vol. 13, pp. 285-319, 1993.

131. Foundations of Genetic Algorithms. Rawlins, G. J. E. (Ed.) San Mateo, CA: Morgan Kaufmann, 1991.

132. Foundations of Genetic Algorithms 2. Whitley, L. D. (Ed.) San Mateo, CA: Morgan Kaufmann, 1993.

133. Foundations of Genetic Algorithms 3. Vose M. D., Whitley, L. D. (Ed.) San Francisco, CA: Morgan Kaufmann, 1995.

134. Frank, A. & Asuncion, A. (2010). UCI Machine Learning Repository http://archive.ics.uci.edu/ml. Irvine, CA: University of California, School of Information and Computer Science.

135. Freund, Y. Boosting a weak learning algorithm by majority // COLT: Proceedings of the Workshop on Computational Learning Theory. Morgan Kaufmann Publishers, 1990.

136. Freund, Y., Schapire, R. E. A decision-theoretic generalization of online learning and an application to boosting // European Conference on Computational Learning Theory. 1995. - Pp. 23-37.

137. Freund, Y., Schapire, R. E. Experiments with a new boosting algorithm // International Conference on Machine Learning. 1996. - Pp. 148-156.

138. Friedberg, R. M. A learning machine: Part I / IBM J., vol. 2, no. 1, pp. 2-13, Jan. 1958.

139. Friedberg, R. M., Dunham, B. and North, J. H. A learning machine: Part II / IBM J., vol. 3, no. 7, pp. 282-287, July 1959.

140. Friedman, J. H., Hastie, T., Tibshirani, R. Additive logistic regression: a statistical view of boosting / Annals of Statistics, vol. 28, no. 2, pp. 337-374, 2000.

141. Fu, W., Johnston, M., Zhang, M. Genetic Programming For Edge Detection: A Global Approach / Lecture Notes in Computer Science, 2011, Volume 7106, pp. 301-310.

142. Gehlhaar, D. K., Fogel, D. B. Tuning evolutionary programming for conformationally flexible molecular docking. In: Proc. 5th Annu. Conf. on Evolutionary Programming. Cambridge, MA: MIT Press, 1996, pp. 419-429.

143. Genetic Algorithms: Proc. 6th Int. Conf. Eshelman, L. (Ed.) San Francisco, CA: Morgan Kaufmann, 1995.

144. Genetic Programming 1996. Proc. 1st Annu. Conf. Koza, J. R., Goldberg, D. E., Fogel, D. B., Riolo, R. L. (Eds.) Cambridge, MA: MIT Press, 1996.

145. Goldberg, D. E. Genetic algorithms and rule learning in dynamic system control. In: Proc. 1st Int. Conf. on Genetic Algorithms and Their Applications. Hillsdale, NJ: Lawrence Erlbaum, 1985, pp. 8-15.

146. Goldberg, D. E. Genetic Algorithms in Search, Optimization and Machine Learning. Reading, MA: Addison-Wesley, 1989.

147. Goldberg, D. E. The theory of virtual alphabets. In: Parallel Problem Solving from Nature—Proc. 1st Workshop PPSN I. (Lecture Notes in Computer Science, vol. 496). Berlin, Germany: Springer, 1991, pp. 13-22.

148. Goldberg, D. E., Deb, K., Clark, J. H. Genetic algorithms, noise, and the sizing of populations / Complex Syst., vol. 6, pp. 333-362, 1992.

149. Goldberg, D. E., Deb, K., Kargupta, H., Harik, G. Rapid, accurate optimization of difficult problems using fast messy genetic algorithms. In: Proc. 5th Int. Conf. on Genetic Algorithms. San Mateo, CA: Morgan Kaufmann, 1993, pp. 56-64.

150. Gomez, J. Self Adaptation of Operator Rates Evolutionary Algorithms / Genetic and Evolutionary Computation GECCO 2004. - Lecture Notes in Computer ScienceVolume 3102, 2004. - pp. 1162-1173.

151. Gomez, F., Miikkulainen, R. Active Guidance for a Finless Rocket using Neuroevolution // Proceedings of Genetic and Evolutionary Computation

152. Conference 2003 (GECCO 2003). Washington, USA, 2003. See also: http://www.nn.cs.utexas.edu/

153. Gomez, F., Miikkulainen, R. Incremental Evolution of Complex General Behavior // Adaptive Behavior, 1997, no.5, pp. 317-342. See also: http://www.nn.cs.utexas.edu/

154. Goonatilake, S., Treleaven, P. (Eds.) Intelligent Systems for Finance and Business. Chichester: Wiley, 1995.

155. Grefenstette, J. J. Conditions for implicit parallelism. In: Foundations of Genetic Algorithms. San Mateo, CA: Morgan Kaufmann, 1991, pp. 252-261.

156. Grefenstette, J. J. Deception considered harmful. In: Foundations of Genetic Algorithms 2. San Mateo, CA: Morgan Kaufmann, 1993, pp. 75-91.

157. Grefenstette, J. J. Incorporating problem specific knowledge into genetic algorithms. In: Genetic Algorithms and Simulated Annealing, L. Davis, Ed. San Mateo, CA: Morgan Kaufmann, 1987, pp. 42-60.

158. Grefenstette, J. J. Optimization of control parameters for genetic algorithms / IEEE Trans. Syst., Man Cybern., vol. SMC-16, no. 1, pp. 122-128, 1986.

159. Gruau, F. Genetic synthesis of modular neural networks. In: Proc. 5th Int. Conf. on Genetic Algorithms. San Mateo, CA: Morgan Kaufmann, 1993, pp. 318-325.

160. Guha, S., Rastogi, R., Shim, K. CURE: An Efficient Clustering Algorithm for Large Databases / Proc. ACM SIGMOD Int'l Conf. Management of Data, ACM Press, New York, 1998, pp. 73-84

161. Gundy-Burlet, K., Krishnakumar, K., Limes, G., Bryant, D. Augmentation of an Intelligent Flight Control System for a Simulated C-17 Aircraft // J. of Aerospace Computing, Information, and Communication. 2004. -Vol. 1, N 12. - P. 526-542.

162. Gutta, S. Face recognition using hybrid classifier systems / S. Gutta, H. Wechsler // in: Proc. ICNN-96, Washington, DC, IEEE Computer Society Press, Los Alamitos, CA, 1996, pp.1017-1022.

163. Haffner, S. B., Sebald, A. V. Computer-aided design of fiizzy HVAC controllers using evolutionary programming. In: Proc. 2nd Annu. Conf. on Evolutionary Programming. San Diego, CA: Evolutionary Programming Society, 1993, pp. 98-107.

164. Hampshire, J. A novel objective function for improved phoneme recognition using time-delay neural networks / J. Hampshire, A. Waibel // IEEE Transactions on Neural Networks 1 (2) (1990) pp. 216-228.

165. Hancock, P. Recombination Operators for the Design of the Neural Nets by Genetic Algorithm // Parallel Problem Solving from Nature (PPSN-II). North-Holland, 1992. pp. 441-450.

166. Hansen, L.K. Neural network ensembles / L.K. Hansen, P. Salamon IEEE Trans. Pattern Analysis and Machine Intelligence 12 (10) (1990) pp.9931001.

167. Harrald, P. G. Evolutionary algorithms and economic models: A view. In: Proc. 5th Annu. Conf. on Evolutionary Programming. Cambridge, MA: MIT Press, 1996, pp. 3-7.

168. Haupt, R.L., Haupt, S.E. Practical genetic algorithms. John Wiley & Sons, Inc., Hoboken, New Jersey, 2004.

169. Hebb, D. O. The Organization of Behavior: A Neuropsychological Theory. — New York: Wiley, 1949. —358 p.

170. Heistermann, J. Different learning algorithms for neural networks a comparative study / In Y. Davidor, H.P. Schwefel, R. Manner (Eds.) Parallel Problems Solving from Nature, Workshop Proceedings. Springer-Verlag, 1994. P. 368-396.

171. Herdy, M. Reproductive isolation as strategy parameter in hierarchically organized evolution strategies. In: Parallel Problem Solving from Nature 2. Amsterdam, The Netherlands: Elsevier, 1992, pp. 207-217.

172. Herrera, F., Lozano, M., Verdegay, J.L. Tackling Real-Coded Genetic Algorithms: Operators and tools for the Behaviour Analysis // Artificial Intelligence Review, 1998, no. 12, pp. 265-319. See also: http://decsai.ugr.es/~herrera/

173. Ho, T. K., Hull, J. J., Srihari, S. N. "Decision combination in multiple classifier systems / IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 16, no. 1, pp. 66-75, 1994.

174. Holland, J. H. Adaptation in Natural and Artificial Systems. Ann Arbor, MI: Univ. of Michigan Press, 1975.

175. Holland, J. H. Outline for a logical theory of adaptive systems / J. Assoc. Comput. Mach., vol. 3, pp. 297-314, 1962.

176. Holland, J. H., Reitman, J. S. Cognitive systems based on adaptive algorithms // Pattern-Directed Inference Systems, D. A. Waterman and F. Hayes-Roth, Eds. New York: Academic, 1978.

177. Huang, J.-J., Tzeng, G.-H., Ong, Ch.-Sh. Two-stage genetic programming (2SGP) for the credit scoring model // Applied Mathematics and Computation, 174 (2006): 1039-1053.

178. Ishibuchi H., Handa H. Recent Advances in Evolutionary Computationismtx.-2oio.

179. Jacobs, R. A. Adaptive mixtures of local experts / R. A. Jacobs, M. I. Jordan, S. J. Nowlan, G. E. Hinton // Neural Computation. 1991. - no. 3. - Pp. 79-87.

180. Jain, A. K., Duin, R. P. W., Mao, J. Statistical pattern recognition: A review // IEEE Transactions on Pattern Analysis and Machine Intelligence. 2000. -Vol. 22, no. 1.-Pp. 4-37.

181. James, D., Tucker, P. A Comparative Analysis of Simplification and Complexification in the Evolution of Neural Network Topologies // Proceedings of Genetic and Evolutionary Computation Conference (GECCO-2004). New York, NY: Springer-Verlag, 2004.

182. Johansson, U., Lofstrom, T., Konig, R., Niklasson, L. Building Neural Network Ensembles using Genetic Programming, International Joint Conference on Neural Networks, 2006.

183. Jordan, M. I., Jacobs, R. A. Hierarchical mixtures of experts and the EM algorithm // Neural Computation. 1994. - no. 6. - Pp. 181-214.

184. Juliff, K. A multi-chromosome genetic algorithm for pallet loading. In: Proc. 5th Int. Conf. on Genetic Algorithms. San Mateo, CA: Morgan Kaufmann, 1993, pp. 467-473.

185. Kamath, U., De Jong, K. A., Shehu ,A. An Evolutionary-based Approach for Feature Generation: Eukaryotic Promoter Recognition / Proceedings of the 2011 IEEE Congress on Evolutionary Computation, 2011. pp. 277-284.

186. Karr, C. L. Genetic algorithms for fuzzy controllers / AI Expert, vol. 6, no. 2, pp. 27-33, 1991.

187. Kaufmann, M. The emergence of default hierarchies in learning classifier systems. In: Proc. 3rd Int. Conf. on Genetic Algorithms. San Mateo, CA: Morgan, 1989, pp. 322-327.

188. Kearns, M., Valiant, L. G. Cryptographic limitations on learning Boolean formulae and finite automata // Proc. of the 21st Annual ACM Symposium on Theory of Computing. 1989. - Pp. 433^144.

189. Keller R., Banzhaf, W. Genetic programming using genotype -phenotype mapping from linear genomes into linear phenotypes. In: Genetic Programming 1996: Proc. 1st Annu. Conf., J. R. Koza, D. E. Goldberg, D. B. Fogel, and R. L. Riolo, Eds., 1996.

190. Khuri, S., Baeck, T., Heitkoetter, J. An evolutionary approach to combinatorial optimization problems. In: Proc. 22nd Annu. ACM Computer Science Conf., D. Cizmar, Ed. New York: ACM, 1994, pp. 66-73.

191. Kitano, H. Designing neural network using genetic algorithm with graph generation system// Complex Systems, 1990, no. 4, pp. 461^176.

192. Klockgether, J., Schwefel, H.-P. Two-phase nozzle and hollow core jet experiments. In: Proc. 11th Symp. Engineering Aspects of Magnetohydrodynamics, D. G. Elliott, Ed. Pasadena, CA: California Institute of Technology, Mar. 24-26, 1970, pp. 141-148.

193. Kohonen, T. Self-organized formation of topologically correct feature maps. // Biological Cybernetics. — 1982. — N 43. — P. 59—69.

194. Kohonen, Т. Self-Organizing Maps. Springer: Berlin . Heidelberg,1997.

195. Konar, A. Computational Intelligence: Principles, techniques and applications. Springer, Berlin, 2005.

196. Korning, P.G. Training of Neural Networks by means of Genetic Algorithms Working on very long Chromosomes // International Journal of Neural Systems, 1995, Vol. 6, No. 3, pp. 299-316. См. также: http://citeseer.ist.psu.edu/

197. Koza, J. R. The Genetic Programming Paradigm: Genetically Breeding Populations of Computer Programs to Solve Problems / John R. Koza. -Cambridge, MA: MIT Press, 1992.

198. Koza, J. R. Genetic Programming: On the Programming of Computers by Means of Natural Selection. Cambridge, MA: MIT Press, 1992.

199. Koza, J. R. Genetic programming tutorial. URL: http://www.genetic-programming. com/ gpanimatedtutorial.html.

200. Koza, J. R. Hierarchical genetic algorithms operating on populations of computer programs. In: Proc. 11th Int. Joint Conf. on Artificial Intelligence, N. S. Sridharan, Ed. San Mateo, CA: Morgan Kaufmann, 1989, pp. 768-774.

201. Koza, J. R., Rice, J. P. Genetic Generation of Both the Weights and Architecture for a Neural Network / International Joint Conference on Neural Networks, IJCNN-91, Vol. II, pp. 397-404, IEEE Computer Society Press, 8-12 July 1991.

202. Krogh, J. V. Neural network ensembles, cross validation, and active learning / J. V. Krogh // in: G. Tesauro, D. Touretzky, T. Leen (Eds.), Advances in Neural Information Processing Systems 7, Denver, CO, MIT Press, Cambridge, MA, 1995, pp.231-238.

203. Kronberger, G. Symbolic Regression for Knowledge Discovery: Bloat, Overfitting, and Variable Interaction Networks. Trauner Verlag, 2011. - 214 p.

204. Kursawe, F. A variant of Evolution Strategies for vector optimization. In: Parallel Problem Solving from Nature—Proc. 1st Workshop PPSN I (Lecture

205. Notes in Computer Science, vol. 496). Berlin, Germany: Springer, 1991, pp. 193197.

206. Law, D., Miikkulainen, R. Grounding Robotic Control with Genetic Neural Networks. Technical Report No. AI94-223. The University of Texas at Austin, 1994. See also: http://www.nn.cs.utexas.edu/

207. LeCun, Y. Une procedure d'apprentissage pour reseau a seuil assymetrique // Cognitiva 85. — 1985. — P. 599—604.

208. LeCun, Y., Denker, J.S., Solla, S.A. Optimal brain damage / In Touretzky D. S. (Ed.) Advances in Neural Information Processing Systems 2. San Mateo, CA: Morgan Kaufman Publishers, 1990. pp. 598-605. See also: http://yann.lecun.com/

209. Leung, K. Data mining using grammar based genetic programming and applications / K. Leung, M. Wong. New York: Kluwer Academic Publisher, 2002.-213 pp.

210. Levin, E., Tishby, N., Solla, S. A statistical approach to learning and generalization in layered neural networks / Proc. IEEE (Special Issue on Neural Networks), C. Lau, Guest Ed., 1990, to be published.

211. Levine, D. M. A genetic algorithm for the set partitioning problem. In: Proc. 5th Int. Conf. on Genetic Algorithms. San Mateo, CA: Morgan Kaufmann, 1993, pp. 481—487.

212. Li, Y., Sundararajan, N., Saratchandran, P. Neuro-controller design for nonlinear fighter aircraft maneuver using fully tuned RBF networks // Automatica. 2001. - Vol. 37, N 8. - P. 1293 - 1301.

213. Lippmann, R. P. An introduction to computing with neural nets / IEEE ASSP Mag, pp. 4-22, Apr. 1987.

214. Littmann, E, Ritter, H. Cascade network architectures // Proceedings of International Joint Conference on Neural Networks, 1992, Vol. 2. pp. 398-404.

215. Lohpetch, D, Corne, D. Multiobjective Algorithms for Financial Trading: Multiobjective out-trades single-objective / In: IEEE Congress on Evolutionary Computation, pp. 192-199. 2011.

216. Lund, H.H., Mayoh, B.H. Specialization in Populations of Artificial Neural Networks // Pro-ceedings of the 5-th Scandinavian Conference on Artificial Intelligence (SCAI'95). Am-sterdam: IOS Press, 1995. См. также: http://citeseer.ist.psu.edu/

217. Maclin, R. Combining the predictions of multiple classifiers: using competitive learning to initialize neural networks / R. Maclin, J.W. Shavlik // in: Proc. IJCAI-95, Montreal, Canada, Morgan Kaufmann, San Mateo, CA, 1995, pp. 524-530.

218. Malik, A.J., Shahzad, W., Khan, F.A. Binary PSO and random forests algorithm for PROBE attacks detection in a network. In: IEEE Congress on Evolutionary Computation, pp. 662-668. (2011)

219. Mandischer, M. Genetic optimization and representation of neural networks. In: Proc. 4th Australian Conf. on Neural Networks, P. Leong and M. Jabri, Eds. Sidney Univ., Dept. Elect. Eng., 1993, pp. 122-125.

220. Mandischer, M. Representation and evolution of neural networks. In: Artificial Neural Nets and Genetic Algorithms, R. F. Albrecht, C. R. Reeves, and N. C. Steele, Eds. Wien, Germany: Springer, 1993, pp. 643-649.

221. McCulloch, W. S., Pitts, W. A logical calculus of the ideas immanent in nervous activity // Bulletin of Mathematical Biophysics. — 1943. — N 5. — P. 115—133.

222. Meyer-Nieberg, S., Beyer, H.-G. Self-Adaptation in Evolutionary Algorithms. In F. Lobo, C. Lima, and Z. Michalewicz (Eds.) Parameter Setting in Evolutionary Algorithm, pp. 47-75, 2007.

223. Michalewicz, Z. Genetic Algorithms + Data Structures = Evolution Programs. Berlin, Germany: Springer, 1996.

224. Michalewicz, Z., Schoenauer, M. Evolutionary algorithms for constrained parameter optimization problems / Evolutionary Computation, vol. 4, no. l,pp. 1-32, 1996.

225. Mitchell, M., Forrest, S. Genetic algorithms and artificial life / Artificial Life, vol. 1, no. 3, pp. 267-289, 1995.

226. Michielssen, E., Weile, D. S. Electromagnetic system design using genetic algorithms. In: Genetic Algorithms in Engineering and Computer Science, G. Winter, J. P'eriaux, M. Gal'an, and P. Cuesta, Eds. Chichester: Wiley, 1995, ch. 18, pp. 345-369.

227. Minsky, M. L. Steps toward artificial intelligence // Proceedings of the Institute of Radio Engineers. — 1961. — N 49. — P. 8—30.

228. Minsky, M. L. Theory of neural-analog reinforcement systems and its application to the brain-model problem: Ph.D. Thesis. — Princeton University, Princeton, NJ., 1954. —143 p.

229. Montana, D., Davis, L. Training feedforward neural networks using genetic algorithms // Proceedings of the 11th International Joint Conference on Artificial Intelligence. San Mateo, CA: Morgan Kaufmann, 1989. P. 762-767.

230. Moriarty, D., Miikkulainen, R. Efficient Reinforcement Learning through Symbiotic Evolution // Machine Learning, 1996, no. 22, pp. 11-33. See also: http://www.nn.cs.utexas.edu/

231. Muehlenbein, H. How genetic algorithms really work: I. Mutation and hill-climbing. In: Parallel Problem Solving from Nature 2. Amsterdam: Elsevier, 1992, pp. 15-25.

232. Muehlenbein, H. Parallel genetic algorithms, population genetics and combinatorial optimization. In:' Schaffer J.D., Ed. Proceedings of the 3rd1.ternational conference on Genetic Algorithms. Morgan Kaufmann, San Francisco, 1989.

233. HNiehaus, J., Banzhaf, W. Adaption of operator probabilities in genetic programming / Proceeding EuroGP '01 Proceedings of the 4th European Conference on Genetic Programming, volume 2038 of LNCS. London: SpringerVerlag, 2001.-pp. 325-336.

234. Olsen, A. Penalty functions and the knapsack problem. In: Proc. 1st IEEE Conf. on Evolutionary Computation. Piscataway, NJ: IEEE Press, 1994, pp. 554-558.

235. O'Neill, M., Vanneschi, L., Gustafson, S., Banzhaf, W. Open issues in genetic programming. In: Genetic Programming and Evolvable Machines (2010) 11:339-363.

236. Ostermeier, A. An evolution strategy with momentum adaptation of the random number distribution. In: Parallel Problem Solving from Nature 2. Amsterdam, The Netherlands: Elsevier, 1992, pp. 197-206.

237. O'Reilly, U.-M., Oppacher, F. The troubling aspects of a building block hypothesis for genetic programming. In: Foundations of Genetic Algorithms 3. San Francisco, CA: Morgan Kaufmann, 1995, pp. 73-88.

238. Palotti, J., Salles, T., Pappa, G. L., Gonzalves, M. A. and Wagner M. Jr. Assessing Documents' Credibility with Genetic Programming / IEEE Congress on Evolutionary Computation 2011 (CEC-2011), New Orleans, LA, 2011.

239. Pan, Z., Kang, L., Nie, S. Evolving Both the Topology and Weights of Neural Networks // Parallel Algorithms and Applications, 1996, no. 9, pp. 299307.

240. Parallel Problem Solving from Nature—Proc. 1st Workshop PPSN I. Schwefel, H.-P., Maenner, R. (Eds.) Berlin, Germany: Springer, 1991, vol. 496 of Lecture Notes in Computer Science.

241. Parallel Problem Solving from Nature 2. Maenner, R., Manderick, B. (Eds.) Amsterdam, The Netherlands: Elsevier, 1992.

242. Parallel Problem Solving from Nature—PPSN III, Int. Conf. on Evolutionary Computation. Davidor, Y., Schwefel, H.-P., Maenner, R. (Eds.) (Lecture Notes in Computer Science, vol. 866) Berlin: Springer, 1994.

243. Parallel Problem Solving from Nature IV. Proc. Int. Conf. on Evolutionary Computation. Voigt, H.-M., Ebeling, W., Rechenberg, I., Schwefel, H.-P. (Eds.) Berlin, Germany: Springer, 1996, vol. 1141 of Lecture Notes in Computer Science.

244. Parker, D. B. Learning-logic: Casting the cortex of the human brain in silicon: Technical Report / Center for Computational Research in Economics and Management Science. — TR-47. — Cambridge, MA: MIT, 1985. — 73 p.

245. Perez-Bergquist, A. S. Applying ESP and Region Specialists to Neuro-Evolution for Go. Technical Report CSTR01-24. The University of Texas at Austin, 2001. See also: http://www.nn.cs.utexas.edu/

246. Perrone, M.P., Cooper, L.N. When networks disagree: ensemble method for neural networks / M.P. Perrone // in: R.J. Mammone (Ed.), Artificial Neural Networks for Speech and Vision, Chapman & Hall, New York, 1993, pp.126-142.

247. Polani D., Miikkulainen R. Eugenic Neuro-Evolution for Reinforcement Learning // Proceedings of the Genetic and Evolutionary Computation Conference (GECCO-2000). San Francisco, CA: Kaufmann, 2000. pp. 1041-1046.

248. Poli, R, Langdon, W.B., McPhee, N.F. A Field Guide to Genetic Programming. Published via http://lulu.com and freely available at http://www.gp-field-guide.org.uk, 2008. (With contributions by J. R. Koza).

249. Poli, R, Langdon, W.B. On the Ability to Search the Space of Programs of Standard, One-Point and Uniform Crossover in Genetic Programming. Technical Report CSRP-98-7. - The University of Birmingham (UK), 1998.-21 p.

250. Poli, R, Page, J. Solving high-order boolean parity problems with smooth uniform crossover, sub-machine code GP and demes. In Genetic Programming and Evolvable Machines, 1 (l/2):37-56, 2000.

251. Potter, M. A., De Jong, K. A. Cooperative coevolution: An architecture for evolving co-adapted subcomponents // Evolutionary Computation, 2000, no. 8, pp. 1-29. See also: http://www.cs.gmu.edu/~eclab/

252. Proc 1st Annu. Conf. on Evolutionary Programming. Fogel D. B, Atmar, W. (Eds.) San Diego, CA: Evolutionary Programming Society, 1992.

253. Proc. 2nd Annu. Conf. on Evolutionary Programming. San Diego, CA: Evolutionary Programming Society, 1993.

254. Proc. 3rd Annual Conf. on Evolutionary Programming. Sebald, A. V, Fogel, L. J. (Eds.) Singapore: World Scientific, 1994.

255. Proc. 4th Annu. Conf. on Evolutionary Programming. McDonnell, J. R, Reynolds, R. G, Fogel, D. B. (Eds.) Cambridge, MA: MIT Press, 1995.

256. Proc. 5th Annu. Conf. on Evolutionary Programming. Fogel, L. J., Angeline, P. J., Baeck, T. (Eds.) Cambridge, MA: The MIT Press, 1996.

257. Proc. 1st IEEE Conf. on Evolutionary Computation, Orlando, FL. Piscataway, NJ: IEEE Press, 1994.

258. Proc. 2nd IEEE Conf. on Evolutionary Computation, Perth, Australia. Piscataway, NJ: IEEE Press, 1995.

259. Proc. 3rd IEEE Conf. on Evolutionary Computation, Nagoya, Japan. Piscataway, NJ: IEEE Press, 1996.

260. Proc. 4th IEEE Conf. on Evolutionary Computation, Indianapolis, IN. Piscataway, NJ: IEEE Press, 1997.

261. Proc. 1st Int. Conf. on Genetic Algorithms and Their Applications. Grefenstette, J. J. (Ed.) Hillsdale, NJ: Lawrence Erlbaum, 1985.

262. Proc. 2nd Int. Conf. on Genetic Algorithms and Their Applications. Hillsdale, NJ: Lawrence Erlbaum, 1987.

263. Proc. 3rd Int. Conf. on Genetic Algorithms. Schaffer, J. D. (Ed.) San Mateo, CA: Morgan Kaufmann, 1989.

264. Proc. 4th Int. Conf. on Genetic Algorithms. Belew, R. K., Booker, L. B. (Eds.) San Mateo, CA, Morgan Kaufmann, 1991.

265. Proc. 5th Int. Conf. on Genetic Algorithms. Forrest, S. (Ed.) San Mateo, CA: Morgan Kaufmann, 1993.

266. Prokhorov, D., Wunsch, D. Adaptive Critic Designs // IEEE Transactions on Neural Networks. 1997. - Vol. 8, N 5. - P. 997 - 1007.

267. Psaltis, D., Sideris, A., Yamamura A.A. A Multilayered Neural Network Controller // IEEE Control Systems Magazine. 1988. - Vol. 8, Issue 2. -P. 17-21.

268. Qian, N., Sejnowski, T. J. Predicting the secondary structure of globular proteins using neural network models / J. Molecular Biol., vol. 202, pp. 865-884, 1989.

269. Radcliffe, N. J. The algebra of genetic algorithms / Ann. Math. Artif. Intell., vol. 10, pp. 339-384, 1994.

270. Radcliffe, N. Genetic set recombination and its application to neural network topology optimization // Neural Computing and Applications, 1993, Vol.1, pp. 67-90.

271. Radcliffe, N. J., Surry, P. D. Fitness variance of formae and performance prediction. In: Foundations of Genetic Algorithms 3. San Francisco, CA: Morgan Kaufmann, 1995, pp. 51-72.

272. Ragg, T., Braun, H., Landsberg, H. A Comparative Study of Neural Network Optimization Techniques. // In Proceedings of the ICANNGA 97. Springer-Verlag, 1997.

273. Rechenberg, I. Cybernetic solution path of an experimental problem / Royal Aircraft Establishment, Library translation No. 1122, Farnborough, Hants., U.K., Aug. 1965.

274. Rechenberg, I. Evolutionsstrategie: Optimierung technischer Systeme nach Prinzipien der biologischen Evolution. Stuttgart, Germany: Frommann-Holzboog, 1973.

275. Rechenberg, I. Evolutionsstrategie '94. In: Werkstatt Bionik und Evolutionstechnik. Stuttgart, Germany: Frommann-Holzboog, 1994, vol. 1.

276. Riolo, R. L. The emergence of coupled sequences of classifiers. In: Proc. 3rd Int. Conf. on Genetic Algorithms. San Mateo, CA: Morgan Kaufmann, 1989, pp. 256-264.

277. Rochester, N., Holland, J. H., Haibt, L. H., Duda, W. L. Tests on a cell assembly theory of the action of the brain, using a large digital computer. // IRE Transactions on Information Theory. — 1956. —N IT-2. — P. 80-93.

278. Rojas, R. Neural networks: a systematic introduction. Springer, Berlin,1996.

279. Rosenblatt, F. The Perceptron: A probabilistic model for information storage and organization in the brain // Psychological Review.— 1958. — N 65. — P. 386—408.

280. Rudolph, G. Convergence analysis of canonical genetic algorithms / IEEE Trans. Neural Networks, Special Issue on Evolutionary Computation, vol. 5, no. l,pp. 96-101, 1994.

281. Rudolph, G. Global optimization by means of distributed evolution strategies. In: Parallel Problem Solving from Nature—Proc. 1st Workshop PPSNI (Lecture Notes in Computer Science, vol. 496). Berlin, Germany: Springer, 1991, pp. 209-213.

282. Rumelhart, D. E., Hinton, G. E., Williams, R. J. Learning representations by back-propagating errors //Nature (London). — 1986. —N 323. — P. 533—536.

283. Schaffer, J. D. Multiple objective optimization with vector evaluated genetic algorithms. In: Proc. 1st Int. Conf. on Genetic Algorithms and Their Applications. Hillsdale, NJ: Lawrence Erlbaum, 1985, pp. 93-100.

284. Schaefer, R., Cotta, C., Kolodziej, J., Rudolph, G. (Eds.) Parallel Problem Solving from Nature PPSN XI 11th International Conference, Krakow, Poland, September 11-15, 2010.

285. Schaffer, J. D., Eshelman, L. J. Designing multiplierless digital filters using genetic algorithms. In: Proc. 5th Int. Conf. on Genetic Algorithms. San Mateo, CA: Morgan Kaufmann, 1993, pp. 439-444.

286. Schaffer, J. D., Eshelman, L. J. On crossover as an evolutionary viable strategy. In: Proc. 4th Int. Conf. on Genetic Algorithms. San Mateo, CA: Morgan Kaufmann, 1991, pp. 61-68.

287. Schaffer, J. D., Morishima, A. An adaptive crossover distribution mechanism for genetic algorithms. In: Proc. 2nd Int. Conf. on Genetic Algorithms and Their Applications. Hillsdale, NJ: Lawrence Erlbaum, 1987, pp. 36^10.

288. Schapire, R. The boosting approach to machine learning: An overview // MSRI Workshop on Nonlinear Estimation and Classification, Berkeley, CA. -2001.

289. Schapire, R. E. The strength of weak learnability // Machine Learning. 1990. - Vol. 5. - Pp. 197-227.

290. Sejnowski, T. J., Rosenberg, C. R. Parallel networks that learn to pronounce English text / Complex Sysz., vol. 1, pp. 145-168, 1987.

291. Sheikholeslami, G., Chatterjee, S., Zhang, A. WaveCluster: A MultiResolution Clustering Approach for Very Large Spatial Databases / Proc. 24th Int'l Conf. Very Large Data Bases, Morgan Kaufmann, San Francisco, 1998, pp. 428439

292. Shi, Q., Song, A. Selective Motion Detection by Genetic Programming / IEEE Congress on Evolutionary Computation 2011: 496-503. 2010.

293. Shimshoni, Y. Classification of seismic signals by integrating ensembles of neural networks / N. Intrator, Y. Shimshoni // IEEE Trans. Signal Processing 46 (5) (1998) pp. 1194-1201.

294. Shu, C., Burn, D.H. Artificial neural network ensembles and their application in pooled flood frequency analysis // Water Resources Research, 40, W09301, doi:10.1029/2003WR002816, 1-10

295. Schuetz, M, Sprave, J. Application of parallel mixed-integer evolution strategies with mutation rate pooling. In: Proc. 5th Annu. Conf. on Evolutionary Programming. Cambridge, MA: MIT Press, 1996, pp. 345-354.

296. Schulze-Kremer S. Genetic algorithms for protein ternary structure prediction. In: Parallel Genetic Algorithms: Theory & Applications, J. Stender, Ed. Amsterdam: IOS, 1993, Frontiers in Artificial Intelligence and Applications, pp. 129-150.

297. Schwefel, H.-P. Evolution and Optimum Seeking. New York: Wiley, 1995 (Sixth-Generation Computer Technology Series).

298. Schwefel, H.-P. Evolutionsstrategie und numerische Optimierung // Dissertation, Technische Universit ät Berlin, Germany, May 1975.

299. Schwefel, H.-P. Projekt MHD-Staustrahlrohr: Experimentelle Optimierungeiner Zweiphasend "use, Teil I / Technischer Bericht 11.034/68, 35, AEG Forschungsinstitut, Berlin, Germany, Oct. 1968.

300. Skurichina, M, Duin, R. P. W. Limited bagging, boosting and the random subspace method for linear classifiers // Pattern Analysis & Applications. -2002.-no. 5.-Pp. 121-135.

301. Smith, J, Fogarty, T. C. Self-adaptation of mutation rates in a steady state genetic algorithm. In: Proc. 3rd IEEE Conf. on Evolutionary Computation. Piscataway, NJ: IEEE Press, 1996, pp. 318-323.

302. Stanley, K.O., Bryant, B.D., Miikkulainen, R. The NERO real-time video game. Technical report AI-TR-04-312. The University of Texas at Austin, 2004.

303. Stanley, K.O., Miikkulainen, R. Evolving Neural Networks through Augmenting Topologies // Evolutionary Computation, 2002, no. 2(10), pp. 99-127. See also: http://www.nn.cs.utexas.edu/

304. Stanley, K.O., Miikkulainen, R. Evolving a roving eye for go // In Proceedings of Genetic and Evolutionary Computation Conference (GECCO-2004). New York, NY: Springer-Verlag, 2004.

305. Stolfo, S., Fan, W., Lee, W., Prodromidis, A., Chan, P. Cost-based Modeling for Fraud and Intrusion Detection: Results from the JAM Project. In: Proceedings of the 2000 DARPA Information Survivability Conference and Exposition (DISCEX '00). (2000)

306. Suzuki, J. A Markov chain analysis on simple genetic algorithms / IEEE Trans. Syst., Man, Cybern., vol. 25, no. 4, pp. 655-659, Apr. 1995.

307. Syswerda, G. Uniform crossover in genetic algorithms. In J. Schaffer, editor, Proceedings of the Third International Conference on Genetic Algorithms. Morgan Kaufmann, 1989.

308. Thierens, D. Non-Redundant Genetic Coding for Neural Networks. Technical report No.UU-CS-1998-46. Utrecht University, Netherlands, 1998. See also: http://www.cs.uu.nl/research/techreps/aut/dirk.html

309. Thrift, P. Fuzzy logic synthesis with genetic algorithms. In: Proc. 4 Int. Conf. on Genetic Algorithms. San Mateo, CA, Morgan Kaufmann, 1991, pp. 514-518.

310. Toussaint, M., Igel, C. Neutrality: a necessity for self-adaptation / In: Proceedings of the IEEE Congress on evolutionary computation (CEC 2002). -2002.-pp 1354-1359.

311. Tresp, V. Committee machines // Handbook for Neural Network Signal Processing / Ed. by Y. H. Hu, J.-N. Hwang. CRC Press, 2001.

312. Tresp, V., Taniguchi M. Combining estimators using non-constant weighting functions // Advances in Neural Information Processing Systems / Ed. by G. Tesauro, D. Touretzky, T. Leen. Vol. 7. - The MIT Press, 1995. - Pp. 419-426.

313. Unger, R., Moult, J. A genetic algorithm for 3D protein folding simulation. In: Proc. 5th Int. Conf. on Genetic Algorithms. San Mateo, CA: Morgan Kaufmann, 1993, pp. 581-588.

314. Uttley, A. M. A theory of the mechanism of learning based on conditional probabilities // Proc. of the 1st International Conference on Cybernetics. —Namur, Gauthier-Villars, Paris (France). — 1956. — P. 83—92.

315. Valsalam, V., Bednar, J., Miikkulainen, R. Constructing Good Learners using Evolved Pattern Generators / In Proceedings of the Genetic and Evolutionary Computation Conference (GECCO). Washington, DC, 2005. See also: http://www.nn.cs.utexas.edu/

316. Venayagamoorthy, G.K., Harley, R.G., Wunsch, D.C. Implementation of Adaptive Criticbased Neurocontrollers for Turbogenerators in a Multimachine

317. Power System", IEEE Transactions on Neural Networks. 2003. - Vol. 14, Issue 5.-P. 1047- 1064.

318. Venu, G. R. K., Prem, C. P., Ramana, M. M. V. Soft computing-neural networks ensembles // Journal of Theoretical and Applied Information Technology, pp. 45-50, 2007.

319. Vose, M. D. Modeling simple genetic algorithms / Evolutionary Computation, vol. 3, no. 4, pp. 453^72, 1995.

320. Walker, R. F., Haasdijk, E. W., Gerrets, M. C. Credit evaluation using a genetic algorithm. In: Intelligent Systems for Finance and Business. Chichester: Wiley, 1995, ch. 3,pp. 39-59.

321. Wang, P., Kwok, D. P. Optimal fuzzy PID control based on genetic algorithm. In: Proc. 1992 Int. Conf. on Industrial Electronics, Control, and Instrumentation. Piscataway, NJ: IEEE Press, 1992, vol. 2, pp. 977-981.

322. Werbos, P. J. Beyond regression: New tools for prediction and analysis in the behavioral science: Ph.D. Thesis. — Harvard University, Cambridge, MA, 1974,—120 p.

323. Whitley, L. D. Genetic algorithms and neural networks. In: Genetic Algorithms in Engineering and Computer Science, G. Winter, J. P'eriaux, M. Gal'an, and P. Cuesta, Eds. Chichester, UK: Wiley, 1995, ch. 11, pp. 203-216.

324. Whitley, D., Starkweather, T., Bogart, C. Genetic Algorithms and Neural Networks: Optimizing Connections and Connectivity // Parallel Computing, 1990, Vol. 14, pp. 341-361. See also: http://www.cs.colostate.edu/~genitor/

325. Widrow, B. Adaptive Inverse Control // Proceedings of the 2nd IF AC Workshop on Adaptive Systems in Control and Signal Processing Lund, Sweden, July 1986.-P. 1-5.

326. Widrow, B. Generalisation and information storage in networks of adaline «neurons» // Self-Organizing Systems (M.C. Yovitz, G.T. Jacobi, and G.D. Goldstein, eds.). — Washington, D.C.: Sparta, 1962. — P. 435—461.

327. Widrow, B., Hoff, M.E., Jr. Adaptive switching circuits // IRE WESCON Convention Record. — 1960. — P. 96—104.

328. Widrow, B., Smith, F.W. Pattern-recognizing control systems // Proceedings of Computer and Information Sciences. Washington, USA - 1964. -Vol. 12.-P. 288-317.

329. Wienholt, W. Minimizing the system error in feedforward neural networks with evolution strategy. In: Proc. Int. Conf. on Artificial Neural Networks, S. Gielen and B. Kappen, Eds. London: Springer, 1993, pp. 490-^493.

330. Willshaw, D. J., von der Malsburg, C. How patterned neural connections can be set up by self-organization // Proceedings of the Royal Society of London. — 1976. — Series B. — N 194. — P. 431^45.

331. Winograd, S., Cowan, J. D. Reliable Computation in the Presence of Noise. — Cambridge, MA: MIT Press, 1963. —247 p.

332. Wolpert, D. H. Stacked generalization // Neural Networks. 1992. -no. 5.-Pp. 241-259.

333. Yager, R. R., Filev, D. P. Essentials of fuzzy modelling and control. Wiley, New York, 1994.

334. Yamamichi, T., Saito, T., Taguchi, K., Torikai, H. Synthesis of Binary Cellular Automata based on Binary Neural Networks // Proceedings of International Joint Conference on Neural Networks. Montreal, Canada, 2005. P. 1361-1365.

335. Yao, X. Evolutionary artificial neural networks // International Journal of Neural Systems, 1993, vol. 4, no. 3, pp. 203-222. See also: http://www.cs.bham.ac.uk/~xin/

336. Yao, X., Liu, Y. Making Use of Population Information in Evolutionary Artificial Neural Networks // IEEE Transactions on systems, man,and cybernetics part B: Cybernetics, 1998, no. 28(3), pp. 417-425. See also: http ://www. cs .bham. ac .uk/~xin/

337. Youvan, D. C., Arkin, A. P., Yang, M. M. Recursive ensemble mutagenesis: A combinatorial optimization technique for protein engineering. In: Parallel Problem Solving from Nature 2. Amsterdam: Elsevier, 1992, pp. 401-410.

338. Yu J.J.Q., Lam A.Y.S., Li V.O.K.: Evolutionary Artificial Neural Network Based on Chemical Reaction Optimization. In: IEEE Congress on Evolutionary Computation (CEC'2011), New Orleans, LA. (2011)

339. Zhang, Y., Wang, J. Recurrent neural networks for nonlinear output regulation // Automatica. 2001. - Vol. 37, N 8. - P. 1161 - 1173.

340. Zhou, Z.-H., Jiang Y. NeC4.5: Neural Ensemble Based C4.5 // IEEE Trans. Knowl. Data Eng. 16(6): 770-773, 2004.

341. Катаев, A.A., Семенкина, M.E., Сидоров, М.Ю., Швец, А.В. Разработка многоядерных эволюционных алгоритмов автоматизированного проектирования нейросетевых предикторов. научно-технический отчет молодежного научного проекта СФУ - Красноярск, 2009 - 80с.

342. Попов, Е.А., Семенкина, М.Е., Липинский, Л.В. Принятие решений коллективом интеллектуальных информационных технологий // Вестник Сибирского государственного аэрокосмического университета им. ак. М.Ф. Решетнева. Вып. 4 (44). - 2012.

343. Семенкин, Е.С, Семенкина, М.Е. Алгоритм генетического программирования с обобщенным оператором множественной рекомбинации. -М.: ВНТИЦ, 2008. № гос. per. 50200802149.

344. Семенкин, Е.С, Семенкина, М.Е. Генетический алгоритм с модифицированным оператором множественной рекомбинации. М.: ВНТИЦ, 2006. - № гос. per. 50200600370.

345. Семенкина, М.Е, Семенкин, Е.С. Программа для решения задач символьной регрессии самоконфигурируемым алгоритмом генетического программирования. М.: Роспатент, 2012. № гос. per. 2012619347.

346. Семенкин, Е.С, Семенкина, М.Е. Программный комплекс адаптивных эволюционных алгоритмов моделирования и оптимизации сложных систем // Программные продукты и системы. № 4. - 2012. - С. 5458.

347. Семенкина, М.Е, Семенкин, Е.С. Самоконфигурируемый генетический алгоритм для решения задач безусловной оптимизации. М.: Роспатент, 2012. № гос. per. 2012618746.

348. Семенкина, М.Е. Алгоритм генетического программирования с множественной рекомбинацией // Информационные технологии и математическое моделирование (ИТММ-2008): Материалы VII

349. Всероссийской научно-практической конференции с международным участием. Томск: Изд-во Том. ун-та, 2008. -Ч. 1. - С. 110-112.

350. Семенкина, М.Е. Исследование эффективности адаптивных эволюционных алгоритмов проектирования информационных технологий интеллектуального анализа данных // Искусственный интеллект и принятие решений. № 1.-2013.

351. Семенкина, М.Е. Самоконфигурируемые эволюционные алгоритмы моделирования и оптимизации // Теория и практика системного анализа. Рыбинск: ИСА РАН, РГАТА имени П.А. Соловьева, 2012. - С. 2430.

352. Семенкина, М.Е., Семенкин, Е.С. Программа для решения задач нейросетевого моделирования самоконфигурируемым алгоритмом генетического программирования. М.: Роспатент, 2012. № гос. per. 2012619346.

353. Semenkin, E.S., Semenkina, M.E. Integration of Intelligent Information Technologies Ensembles with Self-Configuring Genetic Programming Algorithm

354. Vestnik. Scientific Journal of Siberian State Aerospace University named after academician M. F. Reshetnev. № 4 (44).-2012.

355. Статьи в изданиях Перечня ВАК

356. Попов Е.А., Семенкина М.Е., Липинский Л.В. Принятие решений коллективом интеллектуальных информационных технологий // Вестник Сибирского государственного аэрокосмического университета им. ак. М.Ф. Решетнева. Вып. 4 (44). - 2012.

357. Семенкин E.C., Семенкина M.E. Программный комплекс адаптивных эволюционных алгоритмов моделирования и оптимизации сложных систем // Программные продукты и системы. № 4. - 2012. - С. 54-58.

358. Семенкина М.Е. Самоконфигурируемые эволюционные алгоритмы моделирования и оптимизации // Теория и практика системного анализа. -Рыбинск: ИСА РАН, РГАТА имени П.А. Соловьева, 2012. С. 24-30.

359. Семенкина М.Е., Тынченко В.В. О множественной рекомбинации в алгоритмах генетического программирования // Труды XII Международной научной конференции «Решетневские чтения». Красноярск: СибГАУ, 2008. - С. 307-308.

360. Семенкина М.Е. Разработка и исследование оператора множественной рекомбинации в алгоритмах генетического программирования // Труды XI Международной научной конференции «Решетневские чтения». -Красноярск: СибГАУ, 2007. С. 251-252.

361. Регистрация программных систем

362. Семенкина М.Е., Семенкин Е.С. Программа для решения задач нейросетевого моделирования самоконфигурируемым алгоритмом генетического программирования. М.: Роспатент, 2012. № гос. per. 2012619346.

363. Семенкина М.Е., Семенкин Е.С. Программа для решения задач символьной регрессии самоконфигурируемым алгоритмом генетического программирования. М.: Роспатент, 2012. № гос. per. 2012619347.

364. Семенкина М.Е., Семенкин Е.С. Самоконфигурируемый генетический алгоритм для решения задач безусловной оптимизации. М.: Роспатент, 2012. № гос. per. 2012616395.

365. Семенкин Е.С., Семенкина М.Е. Алгоритм генетического программирования с обобщенным оператором множественной рекомбинации. М.: ВНТИЦ, 2008. № гос. per. 50200802149.

366. Семенкин Е.С., Семенкина М.Е. Генетический алгоритм с модифицированным оператором множественной рекомбинации. М.: ВНТИЦ, 2006. № гос. per. 50200600370.

Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.