Гибридный генетический нейросетевой алгоритм идентификации параметров ресурсоемких моделей тема диссертации и автореферата по ВАК РФ 05.13.18, кандидат технических наук Гагарин, Александр Владимирович

  • Гагарин, Александр Владимирович
  • кандидат технических науккандидат технических наук
  • 2011, Уфа
  • Специальность ВАК РФ05.13.18
  • Количество страниц 211
Гагарин, Александр Владимирович. Гибридный генетический нейросетевой алгоритм идентификации параметров ресурсоемких моделей: дис. кандидат технических наук: 05.13.18 - Математическое моделирование, численные методы и комплексы программ. Уфа. 2011. 211 с.

Оглавление диссертации кандидат технических наук Гагарин, Александр Владимирович

Содержание

Введение

ГЛАВА 1. Анализ эволюционных алгоритмов, нейронных сетей и алгоритмов кластеризации

1.1. Задача параметрического оценивания

1.2. Особенности параметрического оценивания ресурсоемких моделей

1.3. Генетические алгоритмы в задачах оптимизации

1.4. Нейронные сети в задачах аппроксимации

1.5. Алгоритмы кластеризации

1.6. Гибридные ГА, использующие нейронную сеть

1.7. Основные результаты и выводы по первой главе

ГЛАВА 2. Интеллектуальные алгоритмы идентификации параметров ресурсоемких моделей

2.1. Гибридная схема использования нейронной сети в составе ГА

2.2. Выбор архитектуры НС для использования в составе ГА+НС

2.3. Алгоритм обучения РБНС в нейросетевом контуре ГА+НС

2.4. Алгоритмы кластеризации входных данных на первом этапе обучения РБНС

2.5. Дополнительное обучение РБНС

2.6. Генетический алгоритм с вертикальными субпопуляциями

2.7. Основные результаты и выводы по второй главе

ГЛАВА 3. Исследование разработанных алгоритмов с помощью вычислительных экспериментов

3.1. Краткие сведения о разработанном комплексе программ

3.2. Тестирование алгоритмов кластеризации КЛ/ЖлА и БА+ОА

3.3. Тестирование ГА+НС на задаче минимизации функций Растри-гина и Розенброка

3.4. Тестирование ГА+В СП на задаче минимизации функций

3.5. Основные результаты и выводы по третьей главе

ГЛАВА 4. Применение разработанных алгоритмов для идентификации параметров гидродинамических моделей нефтяных месторождений

4.1. Прямая задача теории гидродинамического моделирования

4.2. Обратная задача теории гидродинамического моделирования — адаптация модели нефтяного месторождения

4.3. Подбор множителей пористости околоскважинного пространства с использованием ГА+НС

4.4. Определение относительных фазовых проницаемостей модели резервуара с помощью ГА+НС и ГА+ВСП

4.5. Основные результаты и выводы по четвертой главе

Заключение

Список использованных источников

Приложение А. Описание некоторых алгоритмов искусственного интеллекта

А.1. Генетические алгоритмы

А.2. Нейронные сети

Приложение Б. Описание разработанного комплекса программ

Б.1. Общие сведения

Б.2. Модуль ha_utils

Б.З. Модуль ha_alg

Б.4. Краткое описание применения комплекса программ

Рекомендованный список диссертаций по специальности «Математическое моделирование, численные методы и комплексы программ», 05.13.18 шифр ВАК

Введение диссертации (часть автореферата) на тему «Гибридный генетический нейросетевой алгоритм идентификации параметров ресурсоемких моделей»

Введение

Актуальность темы

Одним из важнейших инструментов прогнозирования поведения сложных объектов исследования (ОИ) является математическое моделирование с использованием полномасштабных цифровых моделей этих объектов. Оно дает возможность заменить натурный эксперимент математическим (численным) и исследовать проявление того или иного воздействия на ОИ с помощью изучения влияния параметров на математическую модель. Такой эксперимент, дополняя натурный, позволяет глубже исследовать явление или процесс и принимать наиболее обоснованные решения, сокращающие возможность ошибки.

Теория идентификации систем появилась почти одновременно с теорией автоматического управления, о чем свидетельствуют работы Н. Nyquist (1932) и Н. Bode (1945), в которых, по существу, описываются методы идентификации. В дальнейшем данным вопросом занималось множество известных ученых, таких как R. Lee (1964), G. Box, G. Jenkins (1970), A. Sage (1971), J. Mendel (1973), P. Eykhoff (1974) и др. Современное состояние данной теории представлено в монографиях таких авторов, как D. Grop (1979), JI. А. Растригин (1981), L. Ljung-(1991), Я. 3. Цыпкин (1995) и др. Идентификация ОИ с выходными сигналами у (к) - (у\(к),у2{к),... ,ут(к)), измеряемыми в дискретные моменты времени к = 1,2,..., осуществляется при помощи математической модели у = M(k | х). Выходные сигналы у (к | х) = = (yi(& I х),у2(к I х),... ,ут(к I х)) модели зависят от вектора настраиваемых параметров х е DM с R", значения которых подлежат определению. Для этого вводится целевая функция (ЦФ), отражающая качество идентификации. Часто она имеет квадратичную форму

n

£(k,x)=y(k)-j(k\x),

где W — матрица весовых коэффициентов.

Далее задача идентификации параметров ОИ сводится, как правило, к задаче минимизации ЦФ (1). Обычно она имеет множество локальных минимумов, что ограничивает применимость методов локальной оптимизации (например, градиентных) только возможной стадией уточнения решения. Поэтому в таких задачах, как правило, применяются алгоритмы с возможностями глобальной оптимизации. Разработкой детерминированных и эвристических методов глобальной оптимизации занимались С. А. Пиявский (1967), Н.П. Жидков (1968), Б. О. Шуберт (1972), Ю.Г. Евтушенко (1974), И. Федорова (1978), Р. Г. Стронгин (1978), А. V. Levy, S. Gomez (1980), А. О. Griewank

(1981), Е. Гальперин (1985), J. S. Агога (1992) и другие ученые. Стохастические алгоритмы представлены в работах N. Metropolis (1953), J. Н. Conway

(1982), A.H.G. Rinnooy Kan, C.G.E. Boender (1985), W.L. Price, M. Piccioni (1987), S. Lucidi (1988), P. Jain (1989) и многих других исследователей. Созданием и совершенствованием эволюционных алгоритмов занимались, в частности, J.H. Holland (1962), I. Rechenberg (1965), Н. Schwefel (1965), К. DeJong (1975), D. Whitley (1989), К. Deb, D. E. Goldberg (1991), Z. Michalewicz (1992), F. Herrera, M. Lozano (1998), Т. Back (2000) и др.

Развитие генетических алгоритмов (ГА) с целью ускорения эволюционного поиска в настоящее время идет по многим направлениям. К традиционным можно отнести усовершенствования основных операторов селекции, скрещивания и мутации, распараллеливание, разработку самонастраивающихся ГА. Одним из наиболее перспективных направлений является создание гибридных схем, когда ГА работает в паре с другим алгоритмом оптимизации, например с алгоритмом градиентного спуска (В. А. Тенев и Н. Б. Паклин, 2003).

Большим потенциалом обладает также использование гибридных схем с применением ГА и нейронных сетей (НС). Данному вопросу в последнее время посвящается много работ, например, A. A. Javadi, Z. Liu (2005), J.-T. Kuo (2006), Т. Morimoto, К. С. Giannakoglou (2007) и др. Подобные гибридные ал-

горитмы основаны на технике суррогатного моделирования или метамоде-лирования, предполагающей замену полномасштабной модели ОИ на значительно менее ресурсоемкую модель, приближенно воспроизводящую отклик исходной модели. Теория метамоделирования развивается, в частности, такими учеными, как А. П. Кулешов, А. В. Бернштейн, Е. В. Бурнаев, G. G. Wang (2007), A. Forrester, A. Sobester, А. Кеапе (2008).

Цель диссертационной работы

Целью диссертационного исследования является разработка эффективных алгоритмов решения задачи идентификации параметров ресурсоемких математических моделей на основе методов эволюционных вычислений, ней-росетевой аппроксимации и декомпозиции области поиска решения, а также реализация разработанных алгоритмов в виде комплекса программ.

Задачи исследования

1. Разработать гибридный генетический нейросетевой алгоритм идентификации параметров ресурсоемких математических моделей объекта исследования на основе данных натурного эксперимента.

2. Разработать алгоритм формирования обучающей выборки и обучения нейронной сети в составе гибридного алгоритма.

3. Разработать алгоритм идентификации параметров больших моделей, которые можно представить в виде конечного числа слабо связанных частей, а критерий адекватности модели (целевую функцию) — в виде суперпозиции вложенных функций.

4. Реализовать предложенные алгоритмы в виде комплекса программ и проанализировать их эффективность с помощью вычислительных экспериментов.

5. Применить разработанные алгоритмы для идентификации параметров гидродинамических моделей нефтяных месторождений.

Методы исследования

В работе использованы методы теории оптимизации, математической ста-

тистики, мягких вычислений, искусственного интеллекта, базовые положения теории фильтрации многофазных систем.

Результаты, выносимые на защиту

1. Гибридный генетический нейросетевой алгоритм (ГА+НС) для идентификации параметров ресурсоемких моделей.

2. Алгоритм формирования обучающей выборки и обучения радиально-базисной нейронной сети в составе ГА+НС.

3. Генетический алгоритм с «вертикальными» субпопуляциями (ГА+ВСП) для идентификации параметров математических моделей ОИ с целевой функцией, представимой в виде суперпозиции вложенных функций, «существенно» зависящих от непересекающихся подмножеств множества всех аргументов ЦФ.

4. Реализация предложенных алгоритмов на языке С++ в виде комплекса программ.

5. Результаты анализа эффективности разработанных алгоритмов и рекомендации по их применению.

Научная новизна

1. Гибридная схема ГА+НС, разработанная для решения задач идентификации параметров ресурсоемких математических моделей. Отличается интеграцией в цикл ГА нейросетевого контура, предназначенного для получения прогноза оптимального решения. Обучающая выборка для НС формируется динамически в процессе работы алгоритма.

2. Алгоритм формирования обучающей выборки и обучения радиально-базисной нейронной сети в составе нейросетевого контура ГА+НС. Отличается предварительной кластеризацией множества приближений с автоматическим определением количества кластеров.

3. Генетический алгоритм с вертикальными субпопуляциями, предназначенный для оптимизации целевых функций, являющихся суперпозициями вложенных функций. Отличается оптимизацией вложенных функций от меньше-

го числа неизвестных одновременно с поиском оптимума в пространстве всех неизвестных ЦФ.

Практическая значимость и внедрение результатов работы

Разработанные алгоритмы ГА+НС и ГА+ВСП позволяют существенно сократить время, затрачиваемое на идентификацию параметров ресурсоемких математических моделей ОИ, по сравнению с обычным ГА.

Программная реализация предложенных алгоритмов на языке С++ в виде динамически подключаемых библиотек дает возможность применять их в составе различных программных комплексов. На разработанные библиотеки получено свидетельство об официальной регистрации программы для ЭВМ.

Алгоритмы ГА+НС и ГА+ВСП используются в пакетах прикладных программ, разработанных в ООО «РН-УфаНИПИнефть», таких как программный комплекс для гидродинамического моделирования «NGT BOS» и система автоматической адаптации моделей на базе программного комплекса MATLAB, для работы с реальными проектами разработки нефтяных месторождений, а также в исследовательских целях.

Апробация работы

Основные результаты работы докладывались и обсуждались на следующих научно-технических конференциях.

• Российский и Каспийский региональный конкурс студенческих и аспирантских работ SPE, Москва, 2006.

• Вторая региональная зимняя школа аспирантов и молодых ученых, Уфа, 2007.

• Научная сессия Государственного университета авиационного приборостроения, Санкт-Петербург, 2007.

• Четвертая Международная научно-практическая конференция «Исследование, разработка и применение высоких технологий в промышленности», Санкт-Петербург, 2007.

• Научно-практический семинар «Информационные технологии при раз-

работке месторождений», Уфа, 2007.

• 36-я международная конференция «Современные информационные технологии в нефтяной и газовой промышленности», Коста дель Соль (Испания), 2007.

• Международная научная конференция «Параллельные вычислительные технологии (ПаВТ)», Уфа, 2010.

• Научно-практические семинары в ООО «РН-УфаНИПИнефть».

Публикации

По теме диссертации опубликовано 10 работ, в том числе 4 статьи в рецензируемых научных журналах из списка ВАК, 5 статей и материалов научно-практических конференций в других изданиях, 1 свидетельство об официальной регистрации программы для ЭВМ.

Структура и объем диссертации

Диссертационная работа изложена на 211 страницах машинописного текста и включает в себя введение, четыре главы основного материала, заключение и библиографический список из 145 наименований, изложенные на 157 страницах, а также два приложения. Работа содержит 50 рисунков и 35 таблиц.

Далее кратко излагается содержание работы.

В первой главе приводится постановка задачи параметрического оценивания модели объекта исследования как задачи глобальной оптимизации. Анализируется практическая значимость сокращения размерности пространства поиска параметров модели на примере разбиения на регионы гидродинамической модели нефтяного месторождения.

Рассматриваются особенности применения генетических алгоритмов (ГА) в задачах оптимизации и основные направления развития ГА. Отмечается, что одним из наиболее перспективных направлений является создание гибридных алгоритмов, в частности, основанных на совместном использование ГА и нейронной сети (НС) в качестве аппроксиматора ЦФ.

Проводится обзор таких архитектур НС как многослойный персептрон (МП) и радиально-базисная нейронная сеть (РБНС). Проводится анализ алгоритмов обучения РБНС, в том числе на основе архитектуры каскадной корреляции Фальмана, дающей возможность построить сеть с минимальным количеством скрытых нейронов. Описываются классические алгоритмы кластеризации, применяемые на первом этапе обучения РБНС, и проводится анализ алгоритмов с автоматическим определением количества кластеров. Рассматриваются существующие гибридные ГА, использующие нейронную сеть в качестве аппроксиматора ЦФ, и отмечаются их недостатки.

Общие сведения об эволюционных алгоритмах и НС, описание ГА с бинарным и вещественным представлением хромосомы, различных генетических операторов, архитектуры МП и алгоритма обратного распространения ошибки (ОРО) для обучения НС содержатся в приложении А.

Во второй главе описываются разработанные гибридный генетический нейросетевой алгоритм ГА+НС и генетический алгоритм с вертикальными субпопуляциями ГА+ВСП.

Предлагается схема гибридного генетического нейросетевого алгоритма ГА+НС, в котором радиально-базисная нейронная сеть выполняет функцию аппроксиматора ЦФ. Отличительной особенностью алгоритма является интеграция в цикл ГА нейросетевого контура, формирующего на каждой итерации нейросетевую аппроксимацию ЦФ, которая используется для построения прогноза оптимального решения с помощью другого ГА.

Показывается, что применение РБНС в нейросетевом контуре ГА+НС более предпочтительно по сравнению с МП. Описывается трехэтапный алгоритм обучения РБНС в составе алгоритма ГА+НС. Отличительной особенностью первого этапа является кластеризация множества приближений разработанными алгоритмами с автоматическим определением количества кластеров и позиций их центров, используемых в качестве первого приближения координат центров радиально-базисных функций активации нейронов скрытого слоя. На

втором этапе все веса сети уточняются с помощью классического алгоритма обратного распространения ошибки (ОРО). Рассматривается процедура выполнения первого этапа, в результате которой также формируется обучающая выборка для алгоритма ОРО и область поиска для вспомогательного ГА.

Описываются разработанные алгоритмы кластеризации ОА+СА и КМ+ОА с автоматическим определением количества кластеров, применяемые на первом этапе алгоритма обучения РБНС. В обоих алгоритмах классический равновероятный выбор элементов из входного множества заменяется на оператор селекции ГА, использующий значения ЦФ для каждого входного вектора. Также оба алгоритма содержат специальные шаги, предназначенные для удаления избыточных кластеров. Применение данных алгоритмов позволяет построить РБНС с минимальным количеством скрытых нейронов, что обеспечивает гладкость получаемых аппроксимаций.

Предлагается третий этап обучения РБНС, позволяющий дополнительно снизить ошибку обучения посредством добавления новых скрытых нейронов по методу каскадной корреляции С. Фальмана.

Рассматривается задача идентификации параметров математических моделей ОИ, таких, что ЦФ может быть представлена в виде суперпозиции вложенных функций. Каждая вложенная функция «существенно» зависит от подмножества всех аргументов ЦФ, а влияние на нее со стороны других аргументов ЦФ мало. Также предполагается, что в идеальном случае полностью независимых вложенных функций оптимальное решение ЦФ является объединением оптимальных решений вложенных функций.

Описывается разработанный генетический алгоритм с вертикальными субпопуляциями (ГА+ВСП), который дает возможность быстрее, чем классический ГА, находить оптимум такого рода ЦФ. Каждая субпопуляция определяется подмножеством аргументов ЦФ, соответствующих конкретной вложенной функции. Если представить популяцию в виде матрицы, в строках которой находятся хромосомы (приближения), то ГА+ВСП вертикально разбивает

эту матрицу на субпопуляции. Суть алгоритма заключается в оптимизации каждой вложенной функции одновременно с оптимизацией ЦФ с помощью отдельных ГА.

В конце очередной итерации ГА+ВСП все потомки, полученные в субпопуляциях, заменяют соответствующие подмножества аргументов в случайно выбранных приближениях из матрицы потомков основной популяции. Количество таких замен регулируется экспертно задаваемыми долями миграции г? = р8/р, гв £ [0,1], где р5 — количество потомков, создаваемых в субпопуляции б, р — размер основной популяции. Если доли миграции для всех субпопуляций одинаковы и равны г, то при г - 0 миграция не выполняется и ГА+ВСП соответствует классическому ГА, а при г - 1 потомки основной популяции полностью заменяются случайными комбинациями потомков субпопуляций и поиск в пространстве всех аргументов ЦФ отсутствует.

В третьей главе приводятся результаты исследования эффективности разработанных алгоритмов с помощью вычислительных экспериментов.

Кратко рассматривается разработанный комплекс программ. Приводится схема информационного взаимодействия между различными компонентами комплекса в процессе работы алгоритмов ГА+НС и ГА+ВСП. Общие сведения о разработанном программном комплексе, описание основных классов и функций, формирующих интерфейс для его использования в языках программирования С и С++, а также типовые сценарии его применения содержатся в приложении Б.

Исследуются разработанные алгоритмы ОА+СА и КМ+ОА на примере задачи кластеризации множества двумерных векторов, распределенных по нормальному закону вокруг пяти центров. При этом каждому хг ставится в соответствие определенное значение ЦФ. Приводятся результаты трех вычислительных экспериментов с различными ЦФ и различным выбором центров. Обосновывается выбор алгоритма БА+ОА для использования на первом этапе обучения РБНС, т. к. он в среднем точнее определяет количество центров, по

сравнению с КМ+ОА, хотя он более ресурсоемок.

Проводятся вычислительные эксперименты с алгоритмом ГА+НС на задаче минимизации функций Растригина и Розенброка с 2, 3, 5, 50 и 100 параметрами. Показывается, что в процессе минимизации ЦФ алгоритмами ГА+НС (два этапа обучения), ГА+НС+ДО (три этапа, включая дополнительное обучение) и классическим ГА алгоритм ГА+НС+ДО превосходит классический ГА по скорости минимизации во всех экспериментах.

На основе экспериментов на функции Розенброка с 50 и 100 параметрами, где значение ЦФ улучшается алгоритмом ГА+НС+ДО на 2-3 порядка в течение первых 10 итераций, делается вывод о сравнительно более высокой эффективности нейросетевых прогнозов в начале процесса оптимизации. Подобное поведение ГА+НС+ДО дает ему важное преимущество в задачах, где ЦФ вычисляется на основе результатов ресурсоемких расчетов, т. к. позволяет остановить оптимизацию на ранней стадии, получив приемлемое по точности решение.

Ставятся вычислительные эксперименты с алгоритмом ГА+ВСП на задаче минимизации тестовых функций и каждая из которых содержит три вложенных функции. Функция Т7' содержит полностью независимые вложенные функции, в то время как F2 включает значимые слагаемые, отражающие влияние всех параметров ЦФ на каждую вложенную функцию.

Задача решается с помощью обычного ГА и ГА+ВСП. Целью экспериментов является сравнение скорости оптимизации классического ГА и ГА+ВСП с различными долями миграции, одинаковыми для всех трех субпопуляций. Результаты экспериментов на обеих тестовых функциях показывают, что ГА+ВСП значительно превосходит классический ГА по скорости минимизации ЦФ при любых долях миграции. Однако, для нахождения глобального минимума функции ¥2 доли миграции должны быть меньше единицы, т. е. необходим поиск во всем пространстве аргументов ЦФ.

В четвертой главе приводятся результаты применения разработанных

алгоритмов для решения задачи идентификации параметров гидродинамических моделей нефтяных месторождений, называемой также задачей адаптации модели. Рассматриваются этапы процесса адаптации, основные подходы к решению этой задачи и цикл процесса автоматической адаптации гидродинамической модели нефтегазового месторождения.

Приводится пример определения значений пористости вокруг группы скважин в модели реального месторождения с помощью алгоритма ГА+НС. Для этого каждой скважине ставится в соответствие множитель на значения пористости, применяемый к множеству ячеек, содержащих ствол скважины, а также к ближайшим к стволу ячейкам. Степень влияния рассчитывается при помощи алгоритма Кригинга (Ordinary Kriging). Моделирование влияния значений пористости на суммарный дебит жидкости на выбранных скважинах осуществляется с помощью секторной гидродинамической модели (части модели всего месторождения) для 78 скважин, содержащей 282854 активные ячейки. Приводятся результаты сравнения классического ГА и ГА+НС в данной задаче. Из результатов следует, что алгоритм ГА+НС за 8 итераций нашел решение лучше, чем классический ГА за 27 итераций. Оценка затраченного процессорного времени показала, что применение алгоритма ГА+НС позволяет завершить расчет в 2,8 раза быстрее, по сравнению со классическим ГА, и сэкономить около 45 часов процессорного времени. Эти значения получаются при условии одновременного расчета вариантов модели, соответствующих приближениям одной популяции ГА+НС, на кластере за время % = 2,5 часа и оценке временных затрат на обмен данных с кластером и обработку результатов расчета ta = 30 с на одну модель. При увеличении ta результат изменяется в пользу ГА+НС.

Описывается пример применения ГА+НС и ГА+ВСП для идентификации кривых относительных фазовых проницаемостей (ОФП) воды и нефти гидродинамической модели сектора нефтяного месторождения. В эксперименте с алгоритмом ГА+НС используется гидродинамическая модель для 98 скважин

(4506 активных ячеек). Представлены результаты, полученные усреднением по пяти расчетам, на каждом из которых выполнялось 10 итераций главного ГА. Из результатов следует, что применение предложенного гибридного алгоритма позволяет значительно увеличить точность найденного решения. На третьей итерации ГА+НС минимизирует ЦФ до значения, которое не достигается классическим ГА за 10 итераций. В течение первых четырех итераций приближение быстро улучшается благодаря нейросетевым прогнозам.

В эксперименте с ГА+ВСП используется модель для 42 скважины (5501 активная ячейка), разделенная на два региона, в каждом из которых ОФП задаются отдельно. Результаты показывают преимущество одновременной оптимизации вложенных функций, соответствующих каждому из регионов и ЦФ, соответствующей всей модели в целом. Алгоритм ГА+ВСП превосходит классический ГА, достаточно быстро улучшая решение в течение первых пяти итераций. Обычный ГА за 10 итераций не может минимизировать ЦФ до значения, достигнутого при использовании вертикальных субпопуляций уже на второй итерации.

Похожие диссертационные работы по специальности «Математическое моделирование, численные методы и комплексы программ», 05.13.18 шифр ВАК

Заключение диссертации по теме «Математическое моделирование, численные методы и комплексы программ», Гагарин, Александр Владимирович

4.5. Основные результаты и выводы по четвертой главе

По результатам, полученным в данной главе можно сделать следующие выводы:

1. Предлагаемые в данной работе алгоритмы оптимизации могут использоваться для решения различных задач автоматической адаптации моделей нефтяных месторождений после этапов параметризации и определения ЦФ. Цель применения ГА+НС и ГА+ВСП заключается в снижении времени, затрачиваемого на адаптацию модели, посредством эффективной минимизации ЦФ. Предлагаемые алгоритмы могут применяться в других задачах идентификации параметров больших моделей и прочих инженерных приложениях, соответствующих области их применения.

2. В эксперименте по уточнению значений пористости в ячейках вокруг выбранной группы скважин алгоритм с помощью алгоритма ГА+НС за 8 итераций было найдено решение лучше, чем с использованием классического ГА за 27 итераций. Численное моделирование производилось на кластере. В этих условиях применение ГА+НС позволяет завершить оптимизацию в 2,8 раза быстрее, чем с использованием классического ГА, а экономия процессорного времени в худшем случае составляет около 45 часов (при условии одновременного расчета популяции моделей на кластере, времени расчета одной модели 2,5 ч, минимальных затратах на обмен данными с кластером и обработку результатов моделирования = 30 с). Таким образом, на примере данной задачи ГА+НС успешно достигает поставленные в работе цели.

3. В задаче поиска оптимальных кривых ОФП алгоритм ГА+НС показал высокую скорость минимизации ЦФ и уже на третьей итерации нашел такое ее значение, которое не было достигнуто классическим ГА за 10 итераций. На 10-й итерации, ГА+НС смог найти приблизительно в 7 раз лучшее значение ЦФ по равнению с классическим ГА.

4. В эксперименте с разбитой на два региона моделью на аналогичной задаче алгоритм ГА+ВСП за три итерации минимизировал ЦФ до такого значения, которое не было достигнуто классическим ГА за 10 итераций.

5. Предложенные алгоритмы подтвердили свою эффективность и предоставляют возможность сокращения количества итераций, необходимых для достижения заданной точности решения, либо находят лучшее решение по сравнению с классическим ГА за одинаковое количество итераций. В первом случае существенно уменьшается количество расчетов модели резервуара, что снижает ресурсоемкость задачи ААМ.

144

Заключение

1. Разработан гибридный генетический нейросетевой алгоритм (ГА+НС), в котором радиально-базисная нейронная сеть выполняет функцию аппрокси-матора ЦФ. Отличительной особенностью алгоритма является интеграция в цикл ГА нейросетевого контура, формирующего на каждой итерации нейро-сетевую аппроксимацию ЦФ, которая используется для построения прогноза оптимального решения с помощью другого ГА.

2. Разработан трехэтапный алгоритм обучения РБНС в составе нейросетевого контура ГА+НС. Отличается применением на первом этапе алгоритма кластеризации с автоматическим определением количества кластеров, позволяющего определить количество скрытых нейронов РБНС и первое приближение позиций центров соответствующих радиально-базисных функций. На третьем этапе ошибка обучения дополнительно снижается путем добавления новых скрытых нейронов в соответствии с архитектурой каскадной корреляции С. Фальмана.

3. Разработан генетический алгоритм с вертикальными субпопуляциями (ГА+ВСП), предназначенный для оптимизации ЦФ, представляющих собой суперпозицию вложенных функций. Отличается созданием «вертикальной» субпопуляции для каждой вложенной функции и использованием результатов промежуточных расчетов значений этих функций для оптимизации каждой из них одновременно с поиском в пространстве всех неизвестных ЦФ.

4. На языке С++ разработан комплекс программ, содержащий реализации всех предложенных алгоритмов. Результаты численных экспериментов по минимизации ЦФ Растригина и Розенброка с различным числом параметров (от 2 до 100) показали, что нейросетевые прогнозы особенно эффективны в начале процесса оптимизации. Это дает возожность остановить оптимизацию на ранней стадии, получив приемлемое по точности решение, в задачах, где ЦФ вычисляется на основе результатов ресурсоемких расчетов.

5. Алгоритмы ГА+НС и ГА+ВСП были применены в задачах идентификации параметров гидродинамических моделей, таких как уточнение значений пористости в ячейках вокруг группы скважин и определение кривых относительных фазовых проницаемостей воды и нефти. Показано, что применение разработанных алгоритмов позволяет примерно в три раза сократить время, затрачиваемое на процесс идентификации указанных параметров разномасштабных гидродинамических моделей при получении решения заданной точности или найти лучшее приближение по сравнению с классическим ГА в случае ограничения времени процесса адаптации.

Список литературы диссертационного исследования кандидат технических наук Гагарин, Александр Владимирович, 2011 год

Список использованных источников

1. Льюнг JI. Идентификация систем. Теория для пользователя: Пер. с англ. / Под ред. Я. 3. Цыпкина. М.: Наука. Гл. ред. физ.-мат. лит., 1991. 432 с.

2. Цыпкин Я. 3. Информационная теория идентификации. М.: Наука. Физ-матлит, 1995. 336 с.

3. Цыпкин Я. 3. Адаптация и обучение в автоматических системах. М.: Главная редакция физико-математической литературы изд-ва "Наука 1968. 400 с.

4. Семёнов А. Д., Артамонов Д. В., Брюхачев А. В. Идентификация объектов управления: Учебное пособие. Пенза: Пенз. гос. ун-т, 2003. 215 с.

5. Гроп Д. Методы идентификации систем: Пер. с англ. / Под ред. Е. И. Кри-нецкого. М.: Мир, 1979. 305 с.

6. Schulze-Riegert R., Axmann J., Haase О., et al. Evolutionary Algorithms Applied to History Matching of Complex Reservoirs // SPE Reservoir Evaluation & Engineering. 2002.

7. Soleng H. Oil reservoir production forecasting with uncertainty estimation using genetic algorithms // Proc. Congress on Evolutionary Computation CEC 99. Vol.2. 1999.-6-9 July.

8. Ballester P. J., Carter J. N. A parallel real-coded genetic algorithm for history matching and its application to a real petroleum reservoir // Journal of Petroleum Science and Engineering. 2007. Vol. 59. Pp. 157 - 168.

9. Gomez S., Gosselin O., Barker J. Gradient-Based History-Matching With a Global Optimization Method // Society of Petroleum Engineering Journal. 2001. Vol. 6. Pp. 200-208.

10. Плынин В. В. Четыре принципа корректной адаптации гидродинамической модели к промысловым данным // Нефтяное хозайство. 2006. № 10. С. 50-56.

11. Floris F. J. Т., Bush М. D., Cuypers М. et al. Comparison of production

forecast uncertainty quantification methods — an integrated study //1st Symposium on Petroleum Geostatistics. Toulouse: 1999. —April.

12. Гладков Д., Курейчик В., Курейчик В. Генетические алгоритмы / Под ред. В. Курейчик. ФИЗМАТЛИТ, 2006. 320 с.

13. Wiegand R. P. An analysis of cooperative coevolutionary algorithms: Ph.D. thesis. Fairfax, VA, USA: George Mason University, 2004. Director-Kenneth A. Jong.

14. Вороновский Г., Махотило К., Петрашев С., Сергеев С. Генетические алгоритмы, искусственные нейронные сети и проблемы виртуальной реальности. X.: ОСНОВА, 1997. 112 с.

15. Herrera F., Lozano М., Verdegay J. L. Tackling Real-Coded Genetic Algorithms: Operators and Tools for Behavioural Analysis // Artificial Intelligence Review. 1998. Vol. 12, no. 4. Pp. 265-319. URL: citeseer.ist.psu.edu/ herrera98tackling.html.

16. Herrera F., Lozano M. Gradual distributed real-coded genetic algorithms // IEEE Transactions on Evolutionary Computation. 2000. Vol. 4. Pp. 43-63.

17. Radcliffe N. J. Non-linear genetic representations // Elsevier Science Publishers/North Holland (Amsterdam. North-Holland, 1992. Pp. 259-268.

18. Rechenberg I. Evolution strategy: optimization of technical systems according to the principles of biological evolution // Frommann-Holzboog, Stuttgart. 1973.

19. Back Т., Schwefel H. Evolution strategies I: Variants and their computational implementation // Genetic Algorithms in Engineering and Computer Science. 1995. Pp. 111-126.

20. Гагарин А. В. Свидетельство об официальной регистрации программы для ЭВМ № 2008610656. Интеллектуальные алгоритмы оптимизации. М.: Роспатент. 2008.

21. Herrera F., Lozano М., Sanchez А. М. Hybrid crossover operators for real-coded genetic algorithms: an experimental study // Soft Computing - A

Fusion of Foundations, Methodologies and Applications. 2005. Vol. 9, no. 4. Pp. 280-298.

22. Deb K., Beyer H. Self-adaptive Genetic Algorithms with Simulated Binary Crossover: Tech. Rep. CI-61/99: University of Dortmund, 1999. URL: citeseer. ist .psu. edu/deb99self adaptive .html.

23. Whitley D. An overview of evolutionary algorithms: practical issues and common pitfalls // Information and Software Technology. 2001. Vol. 43, no. 14. Pp. 817-831. URL: citeseer.ist.psu.edu/whitley01overview.html.

24. Whitley D., Rana S., Heckendorn R. B. The Island Model Genetic Algorithm: On Separability, Population Size and Convergence // Journal of computing and information technology. 1999. Vol. 7(1). Pp. 33-47. URL: citeseer. ist.psu.edu/whitley98island.html.

25. Skolicki Z., De Jong K. The influence of migration sizes and intervals on island models // GECCO '05: Proceedings of the 2005 conference on Genetic and evolutionary computation. New York, NY, USA: ACM, 2005. Pp. 1295-1302.

26. Skolicki Z. An analysis of island models in evolutionary computation // GECCO '05: Proceedings of the 2005 workshops on Genetic and evolutionary computation. New York, NY, USA: ACM, 2005. Pp. 386-389.

27. Eiben A. E., Hinterding R., Michalewicz Z. Parameter Control in Evolutionary Algorithms // IEEE Trans, on Evolutionary Computation. 1999. Vol. 3, no. 2. Pp. 124-141. URL: citeseer.ist.psu.edu/article/ eibenOOparameter.html.

28. Back T. Self-Adaptation in Genetic Algorithms // Proceedings of the First European Conference on Artificial Life. 1994.

29. Цой Ю. P. Нейроэволюционный алгоритм и программные средства для обработки изображений: Дис.. .канд. техн. наук 05.13.01 / Томский Политехнический Университет. Томск, 2007. 209 с.

30. Тенев В. А., Паклин Н. Б. Гибридный генетический алгоритм с допол-

нительным обучением лидера // Интеллектуальные системы в производстве. 2003. № 2. С. 181-206.

31. Паклин Н. Б. Адаптивные модели нечеткого вывода для идентификации нелинейных зависимостей в сложных системах: Дис... канд. техн. наук 05.13.18 / Ижевский Государственный Технический Университет. Ижевск, 2004. 162 с.

32. Галушкин А. И. Нейрокомпьютеры. Кн. 1 : Учеб. пособие для вузов / Под ред. А. И. Галушкина. М.: ИПРЖР, 2000.

33. Головко В. А. Нейронные сети: обучение, организация и применение. Кн. 4.: Учеб. пособие для вузов / Под ред. А. И. Галушкина. М.: ИПРЖР, 2000.

34. Горбань А. Н. Обобщенная аппроксимационная теорема и вычислительные возможности нейронных сетей // Сибирский журнал вычислительной математики. 1998. Т. 1, № 1. С. 12-24.

35. Горбань А. Н., Дунин-Барковский В. JL, Кирдин А. Н., др. Нейроинфор-матика. Новосибирск: Наука. Сибирское предприятие РАН, 1998. 296 с.

36. Уоссермен Ф. Нейрокомпьютерная техника: Теория и практика. М.: МИФИ, 1992. 184 с.

37. Хайкин С. Нейронные сети: полный курс. 2-е изд. Издательский дом «Вильяме», 2006. 1104 с.

38. Cybenko G. Approximation by superpositions of a sigmoidal fonction // Mathematics of Control, Signais, and Systems (MCSS). 1989. Vol. 2, no. 4. Pp. 303-314.

39. Powell J. D. Radial basis fonction approximations to polynomials. 1988. Pp. 223-241.

40. Колмогоров A. H. О представлении непрерывных функций нескольких переменных в виде суперпозиции непрерывных функций одного переменного // Доклады АН СССР. 1957. Т. 114, № 5. С. 953-956.

41. Duda R., Hart P., Stork D. Pattern classification and scene analysis. Wiley

New York, 1973.

42. Le Cun Y., Denker J., Solla S. et al. Optimal brain damage // Advances in Neural Information Processing Systems. 1990. Vol. 2, no. 1. P. 1990.

43. Fahlman S. E., Lebiere C. The Cascade-Correlation Learning Architecture // Advances in Neural Information Processing Systems / Ed. by D. S. Touretzky. Vol. 2. Denver 1989: Morgan Kaufmann, San Mateo, 1990. Pp. 524-532. URL: citeseer.ist.psu.edu/fahlman90cascadecorrelation.html.

44. Neruda R., Kudovä P. Learning methods for radial basis function networks // Future Gener. Comput. Syst. 2005. Vol. 21, no. 7. Pp. 1131-1142.

45. Bellman R. Adaptive Control Processes: A Guided Tour. Princeton University Press, 1961.

46. Niyogi P., Girosi F. On the Relationship between Generalization Error, Hypothesis Complexity, and Sample Complexity for Radial Basis Functions // Neural Computation. 1996. Vol. 8, no. 4. Pp. 819-842. URL: citeseer.ist.psu.edu/niyogi96relationship.html.

47. Fahlman S. E. The recurrent cascade-correlation architecture // Advances in Neural Information Processing Systems 3. Morgan Kaufmann, 1991. Pp. 190-196.

48. Squires C. S., Shavlik J. W. Experimental analysis of aspects of the cascade-correlation learning architecture // Rev. A. Publishers, Inc, 1991. Pp. 80-8.

49. Vasconcelos G. C., Ribeiro J. N. G. An Experimental Evaluation of the Cascade-Correlation Network in Pattern Recognition Problems.

50. Fahlman S. E. An empirical study of learning speed in back-propagation networks: Tech. Rep. Computer Science Technical Report: 1988. URL: http://citeseer.ist.psu.edu/340970.html.

51. Vrahatis M., Magoulas G., Plagianakos V. Convergence Analysis of the Quickprop Method // International Joint Conference on Neural Networks. Vol.2. 1999. — July. Pp. 1209-1214.

52. Potter M. A. A genetic cascade-correlation learning algorithm // In. IEEE

Computer Society Press, 1992. Pp. 123-133.

53. Lehtokangas M., Saarinen J., Kaski K. Accelerating training of radial basis function networks with Cascade-Correlation algorithm // Neurocomputing. 1995. Vol. 9, no. 2. Pp. 207-213.

54. Chen S., Cowan C. F. N., Grant P. M. Orthogonal least squares learning algorithm for radial basis function networks // IEEE Transactions On Neural Networks. 1991. Vol. 2, no. 2.

55. Rose K. Deterministic annealing, clustering, and optimization: Ph. D. thesis. Pasadena, CA, USA: California Institute of Technology, 1991.

56. Omran M. G. H., Engelbrecht A. P., Salman A. An overview of clustering methods // Intelligent Data Analysis. 2007. Vol. 11, no. 6. Pp. 583-605.

57. Бериков В., Лбов Г. Современные тенденции в кластерном анализе // Всероссийский конкурсный отбор обзорно-аналитических статей по приоритетному направлению "Информационно-телекоммуникационные системы". 2008. 26 с.

58. Chinrungrueng С., Sequin С. Н. Optimal adaptive k-means algorithm with dynamic adjustment of learning rate // Neural Networks, IEEE Transactions. 1995. Vol. 6, no. 1. Pp. 157-169.

59. Bradley P. S., Fayyad U. M. Refining Initial Points for K-Means Clustering // ICML '98: Proceedings of the Fifteenth International Conference on Machine Learning. San Francisco, CA, USA: Morgan Kaufmann Publishers Inc., 1998. Pp. 91-99.

60. Bengio Y. Convergence Properties of the K-Means Algorithms // Advances in Neural Information Processing Systems 7. MIT Press, 1995. Pp. 585-592.

61. Redmond S. J., Heneghan C. A method for initialising the K-means clustering algorithm using kd-trees // Pattern Recogn. Lett. 2007. Vol. 28, no. 8. Pp. 965-973.

62. Xu M., Franti P. Iterative K-Means Algorithm Based on Fisher Discriminant. URL: http://citeseer.ist.psu.edu/701184.html.

63. Rose К. Deterministic annealing for clustering, compression, classification, regression, and related optimization problems // Proceedings of the IEEE. 1998.-Nov. Vol. 86, no. 11. Pp. 2210-2239.

64. Bezdek J. C. Pattern Recognition With Fuzzy Objective Function Algorithms. NY: Plenum Press, 1981.

65. Kohonen T. Self-organized formation of topologically correct feature maps // Biological Cybernetics. 1982. Vol. 43, no. 1. Pp. 59-69.

66. Kohonen T. Self-Organizing Maps. Springer, 2001. 501 pp.

67. Xu L., Krzyzak A., Oja E. Rival penalized competitive learning for clustering analysis, RBF net, and curve detection // IEEE Transactions on Neural Networks. 1993. Vol. 4, no. 4. Pp. 636-649.

68. Xu L. Rival penalized competitive learning, finite mixture, and multisets clustering // IEEE World Congress on Computational Intelligence 1998. Vol. 3. 1998.

69. Жданов А. С., Костин В. С. Значимость и устойчивость автоматической классификации в задаче поиска оптимального разбиения. URL: http: //nesch.ieie.nsc.ru/publications/stability.htm.

70. Cuevas A., Febrero M., Fraiman R. Estimating the number of clusters // The Canadian Journal of Statistics. 2000. Vol. 28.

71. Sarimveis H., Alexandridis A., Mazarakis S., Bafas G. A new algorithm for developing dynamic radial basis function neural network models based on genetic algorithms // Computers and Chemical Engineering. 2004. Vol. 28.

72. Liu Z., Liu A., Wang C., Niu Z. Evolving neural network using real coded genetic algorithm (GA) for multispectral image classification // Future Gener. Comput. Syst. 2004. Vol. 20, no. 7. Pp. 1119-1129.

73. Oh S.-K., Pedrycz W. Genetic optimization-driven multi-layer hybrid fuzzy neural networks // Simulation Modelling Practice and Theory. 2005. no. 14. Pp. 597 - 613.

74. Saemi M., Ahmadi M., Varjani A. Y. Design of neural networks using ge-

netic algorithm for the permeability estimation of the reservoir // Journal of Petroleum Science and Engineering. 2007. Vol. 59. Pp. 97-105.

75. Wang L. A hybrid genetic algorithm-neural network strategy for simulation optimization // Applied Mathematics and Computation. 2005. Vol. 170. Pp. 1329-1343.

76. Kuo J.-T., Wang Y.-Y., Lung W.-S. A hybrid neural-genetic algorithm for reservoir water quality management. // Water Res. 2006.—Apr. Vol. 40, no. 7. Pp. 1367-1376.

77. Huo X., Xie Z. A novel channel selection method for CANDU refuelling based on the BPANN and GA techniques // Annals of nuclear energy. 2005. Vol. 32. Pp. 1081-1099.

78. Srinivas V., Ramanjaneyulu K. An integrated approach for optimum design of bridge decks using genetic algorithms and artificial neural networks // Advances in Engineering Software. 2006. no. 38. Pp. 475 - 487.

79. Morimoto Т., Ouchi Y., Shimizu M., Baloch M. S. Dynamic optimization of watering Satsuma mandarin using neural networks and genetic algorithms // Agricultural Water Management. 2007. Vol. 93. Pp. 1-10.

80. Javadi A. A., Farmani R., Tan T. P. A hybrid intelligent genetic algorithm // Advanced Engineering Informatics. 2005. Vol. 19, no. 4. Pp. 255-262.

81. Гагарин А. В. Интеллектуальный алгоритм оптимизации параметров ресурсоемких моделей//Информационные технологии. 2008. Т. 137, № 1. С. 23-28.

82. Гагарин А. В., Надеждин О. В. Интеллектуальные алгоритмы адаптации парметров гидродинамической модели резервуара // Научная сессия ГУ-АП, 9-13 апреля 2007 г.: сборник докладов в 3 ч. Т. 2. СПб: ГОУ ВПО «СПбГУАП», 2007. С. 75-79.

83. Гагарин А. В., Надеждин О. В. Применение гибрида генетического алгоритма и нейронной сети для идентификации параметров гидродинамической модели резервуара // Исследование, разработка и применение высо-

ких технологий в промышленности: сборник трудов Четвертой Международной научно-практической конференции. Т. 11. СПб: 2007. С. 95-98.

84. De Jong К. A. An analysis of the behavior of a class of genetic adaptive systems: Ph. D. thesis / University of Michigan. 1975.

85. Riedmiller M., Braun H. A direct adaptive method for faster backpropagation learning: the RPROP algorithm // Proc. IEEE International Conference on Neural Networks. 1993.-28 March-1 April. Pp. 586-591.

86. Poggio Т., Girosi F. A theory of networks for approximation and learning // Laboratory, Massachusetts Institute of Technology. 1989. Vol. 1140.

87. Girosi F., Poggio Т., Caprile B. Extensions of a Theory of Networks for Approximation and Learning // Advances in Neural Information Processing Systems / Ed. by R. P. Lippmann, J. E. Moody, D. S. Touretzky. Vol. 3. Morgan Kaufmann Publishers, Inc., 1991. Pp. 750-756. URL: citeseer. ist.psu.edu/girosi90extensions.html.

88. Light W. Ridge functions, sigmoidal functions and neural networks', in Approximation Theory // In Approximation Theory VII. Academic Press, 1992. Pp. 163-206.

89. Schwenker F., Kestler H. A., Palm G. Three learning phases for radial-basis-function networks // Neural Netw. 2001. Vol. 14, no. 4-5. Pp. 439-458.

90. Simon N., Corporaal H., Kerckhoffs E. Variations on the Cascade-Correlation Learning Architecture for Fast Convergence in Robot Control // Proc. Neuro-Nimes. Nimes, France: 1992. Pp. 455-464. URL: citeseer. ist .psu. edu/simon92variations.html.

91. Bogacz R., Giraud-Carrier C. Supervised Competitive Learning for Finding Positions of Radial Basis Functions: Tech. rep. Bristol, UK, UK: 1997.

92. Haddadniaa J., Faeza K., Ahmadib M. A fuzzy hybrid learning algorithm for radial basis function neural network with application in human face recognition // Pattern Recognition. 2003. Vol. 36, no. 5. Pp. 1187 - 1202.

93. Fritzke B. Fast Learning with Incremental RBF Networks // Neural Processing

Letters. 1994. Pp. 2-5.

94. Sarimveis H., Alexandridis A., Bafas G. A fast training algorithm for RBF networks based on subtractive clustering // Neurocomputing. 2003. Vol. 51. Pp. 501 - 505.

95. Micchelli C. Interpolation of scattered data: Distance matrices and conditionally positive definite functions // Constructive Approximation. 1986. Vol. 2. Pp. 11-22.

96. Lowe D. Adaptive radial basis function nonlinearities and the problem of generalization // First IEE International Conference on Artificial Neural Networks. 1989. Pp. 171-175.

97. Fontenla-Romero O., Erdogmus D., Principe J. C. et al. Accelerating the convergence speed of neural networks learning methods using least squares // ESANN'2003 proceedings - European Symposium on Artificial Neural Networks Bruges (Belgium). 2003. Pp. 255 - 260.

98. Ball G., Hall D. A clustering technique for summarizing multivariate data // Behavioral Science. 1967. no. 12. Pp. 153-155.

99. Гагарин А. В., Газизов P. К. Гибридный генетический нейросетевой алгоритм в задаче идентификации параметров цифровых моделей // Вестник УГАТУ: науч. журнал Уфимск. гос. авиац. техн. ун-та. 2009. Т. 13, № 2 (35). С. 246-255.

100. Гагарин А. В., Газизов Р. К. Исследование генетического алгоритма с вертикальными популяциями с помощью вычислительных экспериментов и применение для идентификации параметров гидродинамической модели нефтяного месторождения с несколькими регионами // Компьютерные науки и информационные технологии: сборник трудов девятой международной конференции, 9-13 сентября 2007 (CSIT'2007). Т. 4. 2007. С. 71-76 (опубликовано на английском языке).

101. Гагарин А. В. Применение генетического алгоритма с использованием «вертикальных» субпопуляций для определения параметров гидродина-

мической модели резервуара // Интеллектуальные системы обработки информации и управления: сборник статей 2-ой региональной зимней школы-семинара аспирантов и молодых ученых, 13-17 февраля 2007. Т. 1. Уфа: Издательство «Технология», 2007. С. 298-303.

102. Гагарин А. В. Модифицированные генетические алгоритмы с применением нейронных сетей и вертикальных субпопуляций // Вестник УГАТУ: науч. журнал Уфимск. гос. авиац. техн. ун-та. 2006. Т. 8, № 2 (18). С. 119-122.

103. Азиз X., Сеттари Э. Математическое моделирование пластовых систем: Пер. с англ. М.: Недра, 1982. 407 с.

104. Aziz К., Dourlofsky L., Tchelepi Н. Notes for Petroleum Reservoir Simulation: Tech. rep.: Stanford University, 2007. — August.

105. Баренблатт Г. И., Ентов В. М., Рыжик В. М. Движение жидкостей и газов в неоднородных пластах. М.: Недра, 1984. 211 с.

106. Закиров Э. С. Трехмерные многофазные задачи прогнозирования, анализа и регулирования разработки месторождений нефти и газа. М.: Изд. «Грааль», 2001. 303 с.

107. Каневская Р. Д. Математическое моделирование гидродинамических процессов разработки месторождений углеводородов. Москва-Ижевск: Институт компьютерных исследований, 2002. 140 с.

108. Bryant S., Srinivasan S., an Sharad Yadav A. B. History Matching In Parallel Computational Environments: Annual report: Center for Petroleum and Geosystems Engineering, 2005.— October.

109. Bissel R., Dubrule O., Lamy P. et al. Comining Geostatistical Modelling With Gradient Information for History Matching: The Pilot Point Method // SPE Annual Technical Conference and Exhibition. San Antonio, Texas, USA: 1997.-October.

110. Savioli G. В., Bidner M. S. Comparison of optimization techniques for automatic history matching // Journal of Petroleum Scienceand Engineering. 1994.

Vol. 12. Pp. 25 - 35.

111. Liu N., Oliver D. S. Ensemble Kalman filter for automatic history matching of geologic facies // Journal of Petroleum Science and Engineering. 2005. Vol. 47. Pp. 147-161.

112. Portella R. С. M., Prais F. Use of Automatic History Matching and Geostatis-tical Simulation to Improve Production Forecast // SPE Latin American and Caribbean Petroleum Engineering Conference. Caracas, Venezuela: 1999.

113. Silva P. C., Maschio C., Schiozer D. J. Use of Neuro-Simulation techniques as proxies to reservoir simulator: Application in production history matching // Journal of Petroleum Science and Engineering. 2007. Vol. 57. Pp. 273 - 280.

114. Байков P. А., Гагарин А. В., Газизов P. К., Макеев Г. А. Автоматизированная система идентификации параметров цифровых моделей на основе интеллектуальных алгоритмов оптимизации // Интеллектуальные системы управления / Под ред. академика С. Н. Васильева. М.: Машиностроение, 2010. С. 292-300.

115. Гагарин А. В., Макеев Г. А., Байков Р. А., Волков В. Г. Опыт решения задачи параметрического оценивания цифровых моделей нефтяного месторождения // Вестник Южно-Уральского государственного университета. 2010. Т. 211, №35. С. 12-24.

116. Matheron G. Principles of Geostatistics // Economic Geology. 1963. Vol. 58. Pp. 1246-1266.

117. Brooks R. H., Corey A. T. Properties of Porous Media Affecting Fluid Flow // Journal of the Irrigation and Drianage Division. 1966.— June. Vol. 92, no. IR2. Pp. 61-88.

118. Li K., Home R. N. Comparison of methods to calculate relative permeability from capillary pressure in consolidated water-wet porous media // WATER RESOURCES RESEARCH. 2006. Vol. 42, no. W06405. 11 pp.

119. Holland J. H. Adaptation in natural and artificial systems. Cambridge, MA, USA: MIT Press, 1992. 211 pp. ISBN: 0-262-58111-6.

120. Back Т., Fogel Т., Michalewicz Z. Evolutionary Computations 1. Basic Algorithms and Operators. Institute of Physics, 2000. Vol. 1. 339 pp.

121. Mathias К. E., Whitley D. Transforming the Search Space with Gray Coding // International Conference on Evolutionary Computation. 1994. Pp. 513-518. URL: citeseer. ist .psu.edu/mathias94transforming.html.

122. Скурихин A. H. Генетические алгоритмы // Новости искусственного интеллекта. 1995. № 4. С. 6-46.

123. Back Т. Selective pressure in evolutionary algorithms: a characterization of selection mechanisms // Proceedings of the First IEEE Conference on Evolutionary Computation. 1994. Pp. 57-62.

124. Goldberg D. E., Deb K. A comparison of selection schemes used in genetic algorithms // Foundations of Genetic Algorithms, Ed. by G. J. E. Rawlins. 1991. Pp. 69-93.

125. Goldberg D. E. Genetic Algorithms in Search, Optimization and Machine Learning. Boston, MA, USA: Addison-Wesley Longman Publishing Co., Inc., 1989. 412 pp. ISBN: 0201157675.

126. Blickle Т., Thiele L. A comparison of selection schemes used in genetic algorithms: Tech. rep.: Gloriastrasse 35, CH-8092 Zurich: Swiss Federal Institute of Technology (ETH) Zurich, Computer Engineering and Communications Networks Lab (TIK), 1995.

127. Michalewicz Z. Genetic algorithms + data structures = evolution programs (3rd ed.). London, UK: Springer-Verlag, 1996. 387 pp. ISBN: 3-540-60676-9.

128. De Jong K. A., Sarma J. Generation gaps revisited // Foundations of Genetic Algorithms. Morgan Kaufmann, 1993. Pp. 19-28.

129. Deb K., Agrawal S. Understanding Interactions among Genetic Algorithm Parameters // Foundations of Genetic Algorithms 5 / Ed. by W. Banzhaf, C. Reeves. San Francisco, CA: Morgan Kaufmann, 1999. Pp. 265-286. URL: citeseer. ist. psu. edu/deb98understanding. html.

130. Whitley D. A Genetic Algorithm Tutorial // Statistics and Computing. 1994.

Vol. 4. Pp. 65-85. URL: citeseer.ist.psu.edu/whitley93genetic. html.

131. De Jong K. A., Spears W. M. An analysis of the interacting roles of population size and crossover in genetic algorithms // Lecture Notes in Computer Science. Springer Berlin / Heidelberg, 1991. Vol. 496. Pp. 38-47.

132. De Jong K. A., Spears W. M. Using genetic algorithms to solve NP-complete problems // Proceedings of the third international conference on Genetic algorithms. San Francisco, CA, USA: Morgan Kaufmann Publishers Inc., 1989. Pp. 124-132.

133. Goldberg D. E. Sizing populations for serial and parallel genetic algorithms // Proceedings of the third international conference on Genetic algorithms. San Francisco, CA, USA: Morgan Kaufmann Publishers Inc., 1989. Pp. 70-79.

134. Skolicki Z., De Jong K. Improving evolutionary algorithms with multi-representation island models // In Late Breaking Papers at the 2004 Genetic and Evolutionary Computation Conference. Springer, 2004. Pp. 420-429.

135. Cantú-Paz E. Migration Policies, Selection Pressure, and Parallel Evolutionary Algorithms // Journal of Heuristics. 2001. Vol. 7, no. 4. Pp. 311-334.

136. McCulloch W., Pitts W. A logical calculus of the ideas immanent in nervous activity // Bulletin of Mathematical Biology. 1943. Vol. 5, no. 4. Pp. 115-133.

137. Rumelhart D., McClelland J. Parallel Distributed Processing: Explorations in the Microstructure of Cognition. MIT Press, 1986. 611 pp.

138. Minsky M., Papert S. Perceptrons: an introduction to computational geometry. MIT Press Cambridge, Mass, 1969. 258 pp.

139. Nguyen D., Widrow B. Improving the learning speed of 2-layer neural networks by choosinginitial values of the adaptive weights // 1990 IJCNN International Joint Conference on Neural Networks. 1990. Pp. 21-26.

140. Александреску А. Современное проектированиие на С++. Серия С++ In-Depth, т. 3.: Пер. с англ. М.: Издательский дом «Вильяме», 2002. 336 с.

141. Саттер Г. Решение сложных задач на С++. Серия С++ In-Depth, т. 4.: Пер.

с англ. М.: Издательский дом «Вильяме», 2002. 400 с.

142. Вандервуд Д., Джосаттис Н. М. Шаблоны С++: справочник разработчика.: Пер. с англ. М.: Издательский дом «Вильяме», 2003. 544 pp.

143. Лоусон Ч., Хенсон Р. Численное решение задач метода наименьших квадратов/Пер. с англ. М.: Наука. Гл. ред. физ.-мат. лит., 1986. 232 с.

144. Шнайер Б. Прикладная криптография. Протоколы, алгоритмы, исходные тексты на языке Си. М.: «Триумф», 2002. 816 с.

145. L'Ecuyer R. Efficient and Portable Combined Random Number Generators // Communications of the ACM. 1988. Vol. 31, no. 6. Pp. 742-749.

161

Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.