Алгоритмы организации функционирования мультикластерных вычислительных систем с иерархической структурой тема диссертации и автореферата по ВАК РФ 05.13.15, кандидат технических наук Пазников, Алексей Александрович

  • Пазников, Алексей Александрович
  • кандидат технических науккандидат технических наук
  • 2013, Новосибирск
  • Специальность ВАК РФ05.13.15
  • Количество страниц 146
Пазников, Алексей Александрович. Алгоритмы организации функционирования мультикластерных вычислительных систем с иерархической структурой: дис. кандидат технических наук: 05.13.15 - Вычислительные машины и системы. Новосибирск. 2013. 146 с.

Оглавление диссертации кандидат технических наук Пазников, Алексей Александрович

Содержание

Список основных сокращений

Введение

Глава 1. Распределённые вычислительные системы с программируемой структурой

1.1. Понятие о распределённых ВС с программируемой структурой

1.1.1. Модель коллектива вычислителей

1.1.2. Классификация ВС

1.1.3. Вычислительные системы с программируемой структурой

1.1.4. Структуры коммуникационных сетей распределённых ВС

1.1.5. Параллельные алгоритмы и программы

1.2. Пространственно-распределённые ВС

1.2.1. Понятие о пространственно-распределённых ВС

1.2.2. Мультикластерные и СБ.ГО-системы

1.2.3. Основные режимы функционирования пространственно-распределённых ВС

1.2.4. Режим обслуживания потока задач

1.3. Выводы

Глава 2. Децентрализованная диспетчеризация мультикластер-

ных ВС

2.1. Диспетчеризация задач в пространственно-распределённых ВС

2.1.1. Задача диспетчеризации параллельных задач

2.1.2. Обзор средств диспетчеризации задач в пространственно-распределённых ВС

2.2. Алгоритмы децентрализованной диспетчеризации задач в пространственно-распределённых ВС

2.2.1. Локально-оптимальный алгоритм диспетчеризации задач (ДЛО)

2.2.2. Алгоритм диспетчеризации на основе репликации задач (ДР)

2.2.3. Алгоритм диспетчеризации на основе миграции задач (ДМ)

2.2.4. Алгоритм диспетчеризации на основе комбинированного подхода (ДРМ)

2.2.5. Примеры работы алгоритмов

2.3. Моделирование алгоритмов децентрализованной диспетчеризации параллельных программ

2.3.1. Организация экспериментов

2.3.2. Сравнительный анализ алгоритмов децентрализованной диспетчеризации

2.3.3. Экспериментальное сравнение с методами централизованной диспетчеризации

2.4. Выбор логических структур локальных окрестностей диспетчеров

2.4.1. Анализ логических структур локальных окрестностей диспетчеров

2.4.2. Алгоритмы поиска субоптимальных локальных окрестностей диспетчеров

2.5. Выводы

Глава 3. Вложение параллельных программ в иерархические

пространственно-распределённые ВС

3.1. Задача оптимального вложения параллельных программ

3.1.1. Обзор алгоритмов вложения параллельных программ в пространственно-распределённые ВС

3.1.2. Задача оптимального вложения в иерархические пространственно-распределённые ВС

3.2. Алгоритмы вложения параллельных программ в иерархические

пространственно-распределённые ВС

3.2.1. Задача оптимального разбиения графа на к непересекающихся подмножеств

3.2.2. Метод вложения параллельных программ в мультикла-стерные ВС

3.3. Моделирование алгоритмов вложения МР1-программ в подсистемы пространственно-распределённых ВС

3.3.1. Организация экспериментов

3.3.2. Результаты экспериментов

3.4. Выводы

Глава 4. Пространственно-распределённая мультикластерная

ВС

4.1. Архитектура пространственно-распределённой мультикластер-

ной ВС

4.2. Программное обеспечение мультикластерной ВС

4.2.1. Стандартные компоненты

4.2.2. Выполнение параллельных программ на мультикластерной ВС

4.2.3. Пакет СВгокег децентрализованной диспетчеризации параллельных программ

4.2.4. Пакет МРГСпсШар оптимизации вложения параллельных МР1-программ в мультикластерные ВС

4.2.5. Оценка производительности каналов связи между подсистемами пространственно-распределённых ВС

4.3. Выводы

Заключение

Литература

Приложение А. Пространственно-распределённая мультикла-стерная ВС

Список основных сокращений

ВС - вычислительная система.

ИФП СО РАН - Федеральное государственное бюджетное учреждение науки Институт физики полупроводников им. А.В. Ржанова Сибирского отделения Российской академии наук.

ПО - программное обеспечение.

СО АН СССР - Сибирское отделение Академии наук Союза Советских Социалистических Республик.

СУР - система управления ресурсами.

ФГОБУ ВПО "СибГУТИ" - Федеральное государственное образовательное бюджетное учреждение высшего профессионального образования "Сибирский государственный университет телекоммуникаций и информатики".

ЦПВТ - Центр параллельных вычислительных технологий.

ЭМ - элементарная машина.

MPI - Message Passing Interface.

PGAS - Partitioned Global Address Space.

Рекомендованный список диссертаций по специальности «Вычислительные машины и системы», 05.13.15 шифр ВАК

Введение диссертации (часть автореферата) на тему «Алгоритмы организации функционирования мультикластерных вычислительных систем с иерархической структурой»

Введение

Актуальность. В настоящее время возрастающая потребность в высокопроизводительных средствах обработки информации при решении сложных задач науки и техники привела к необходимости создания распределённых вычислительных систем (ВС) [1-3], характеризующихся массовым параллелизмом. В архитектурном плане они представляют собой множества элементарных машин (ЭМ), оснащённых средствами коммуникаций и внешними устройствами. К началу XXI в. получили широкое распространение пространственно-распределённые вычислительные системы - макроколлективы рассредоточенных вычислительных средств (подсистем), взаимодействующих через локальные и глобальные сети связи (включая сеть Internet). Подсистема такой ВС может быть представлена ЭВМ, вычислительным кластером или отдельной проприетарной ВС с массовым параллелизмом. К пространственно-распределённым относятся мультикластерные вычислительные и GRID-системы.

Одним из основных режимов функционирования пространственно-распределённых ВС является мультипрограммный режим обслуживания потоков параллельных задач. В этом режиме в систему (в распределённую очередь) поступает поток задач. Для решения каждой задачи требуется выделять элементарные машины с одной или нескольких подсистем с целью оптимизации заданных показателей эффективности функционирования ВС.

Одним из таких показателей является время обслуживания задачи, которое включает время доставки входных и выходных данных задачи до подсистем, время ожидания в локальных очередях и время выполнения программы на ЭМ.

Актуальной является разработка моделей, методов и программного обеспечения организации функционирования пространственно-распределённых ВС. В моделях и алгоритмах должны учитываться архитектурные свойства современных ВС: болынемасштабность, мультиархитектурная организация (наличие

SMP, NUMA-узлов и специализированных ускорителей) и иерархическая структура коммуникационной среды.

После того, как сформирована подсистема ЭМ, необходимо оптимально вложить задачу в неё: распределить ветви по ЭМ так, чтобы минимизировать накладные расходы на межмашинные обмены информацией. Проблема вложения (Task mapping, task allocation, task assignment) в недостаточной степени проработана для пространственно-распределённых ВС, поэтому востребованы алгоритмы оптимизации вложения параллельных программ в мультикластер-ные и GRID-системы.

Пространственно-распределённые ВС комплектуются из неабсолютно надёжных вычислительных ресурсов (вычислительных узлов, сетевых коммутаторов, процессорных ядер и др.), поэтому немаловажной задачей является разработка средств (математических моделей, методов и программного обеспечения) организации их живучего функционирования.

Отечественные и зарубежные исследования в области распределённых ВС активно ведутся со второй половины XX столетия. Ряд фундаментальных работ посвящен проблемам создания и эксплуатации высокопроизводительных вычислительных средств: проведены исследования по теории функционирования и построению оптимальных (макро)структур ВС, проработаны многие аспекты создания программного обеспечения, исследован широкий круг задач, допускающих эффективную реализацию на распределённых ВС. Построены отечественные вычислительные системы: "Минск-222", СУММА, МИНИМАКС, МИКРОС, МВС, Эльбрус и др. Создана первая в мире пространственно-распределённая ВС - система АСТРА [4].

Фундаментальный вклад в теорию и практику вычислительных систем и параллельных вычислительных технологий внесли выдающиеся учёные, среди которых Е. П. Балашов, В. В. Бетелин, В. С. Бурцев, В. В. Васильев, В. В. Воеводин, В. М. Глушков, В. Ф. Евдокимов, Э. В. Евреинов, А. В. Забродин, В. П. Иванников, М. Б. Игнатьев, А. В. Каляев, И. А. Каляев, JI. Н. Коро-

лев, В. Г. Лазарев, С. А. Лебедев, В. К. Левин, Г. И. Марчук, В. А. Мельников, Ю. И. Митропольский, Д. А. Поспелов, И. В. Прангишвили, Д. В. Пузанков, Г. Е. Пухов, А. Д. Рынков, Г. Г. Рябов, А. А. Самарский, В. Б. Смолов, А. Н. Томилин, Я. А. Хетагуров, В. Г. Хорошевский, Б. Н. Четверушкин, Ю. И. Шокин, H. Н. Яненко, P. Balaji, R.. Buyya, S. Cray, J. Dongarra, M. Flynn, I. Foster, A. Gara, D. Grice, W. Gropp, D. Hillis, C. Kesselman, D. L. Slotnick, R.. Thakur и др. На основе полученных результатов был создан инструментарий организации функционирования распределённых ВС [1-70].

При решении проблем оптимизации функционирования ВС в мультипрограммных режимах большую роль сыграли фундаментальные работы по исследованию операций и оптимальному управлению выдающихся ученых: В. Л. Бе-реснева, Э. X. Гимади, В. Т. Дементьева, С. В. Емельянова, Ю. И. Журавлева, А. А. Корбут, С. К. Коровина, Ю. С. Попкова, К. В. Рудакова, D. P. Agrawal, R. Baraglia, S. H. Bokhari, P. Bouvry, A. Gara, G. Karypis, B. W. Kernighan, V. Kumar, S. Lin, R.. Perego, K. Steiglitz и др.

В диссертации предложены децентрализованные алгоритмы диспетчеризации параллельных программ в мультикластерных ВС с иерархической структурой и алгоритмы оптимизации вложения в них параллельных программ. Полученные результаты легли в основу инструментария организации функционирования мультикластерных ВС.

Цели и задачи диссертационной работы. Цель диссертации заключается в разработке и исследовании алгоритмов и программных средств организации функционирования мультикластерных ВС с иерархической структурой.

В соответствии с целью определены следующие задачи исследования.

1. Анализ архитектурных свойств современных пространственно-распределённых мультикластерных вычислительных и GR.ID-систем, методов диспетчеризации и вложения в них параллельных программ.

2. Разработка алгоритмов децентрализованной диспетчеризации в мульти-кластерных ВС параллельных программ с целью минимизации времени их обслуживания.

3. Создание программного инструментария децентрализованной диспетчеризации параллельных программ в мультикластерных ВС.

4. Построение алгоритмов оптимизации вложения в иерархические пространственно-распределённые ВС параллельных программ с целью минимизации времени их выполнения.

5. Реализация программного инструментария субоптимального вложения параллельных МР1-программ в мультикластерные ВС.

6. Разработка средств мониторинга производительности каналов связи и загрузки подсистем мультикластерных ВС.

Методы исследования. Для достижения цели и решения поставленных задач применялись методы теории функционирования распределённых вычислительных систем, теории множеств, теории графов, теории алгоритмов и математический аппарат исследования операций. Экспериментальные исследования проводились путём моделирования на пространственно-распределённой мульти-кластерной вычислительной системе.

Научная новизна работы. В диссертационной работе созданы и исследованы алгоритмы организации функционирования мультикластерных ВС с иерархической структурой.

1. Предложено семейство алгоритмов децентрализованной диспетчеризации параллельных программ. Алгоритмы учитывают переменный характер загрузки ресурсов и каналов связи пространственно-распределённых ВС и позволяют обеспечить живучее обслуживание потоков параллельных программ.

2. На основе методов разбиения графов на непересекающиеся подмножества предложены эвристические алгоритмы вложения параллельных программ в мультикластерные ВС. Алгоритмы учитывают все уровни иерархиче-

ской структуры ВС, что позволяет сократить время выполнения информационных обменов в параллельных программах.

3. Выработаны рекомендации по формированию структур логических связей децентрализованных диспетчеров мультикластерных ВС. Создан эвристический алгоритм поиска субоптимальных структур локальных окрестностей диспетчеров, минимизирующий функцию штрафа при обслуживании потоков параллельных программ.

Практическая ценность работы. Разработанные в диссертации модели и алгоритмы реализованы в компонентах системного программного обеспечения мультикластерных и GRID-систем.

Предложенные алгоритмы диспетчеризации легли в основу пакета GBroker децентрализованной диспетчеризации параллельных задач в мультикластерных ВС. Применение пакета GBroker позволяет организовать живучее обслуживание потоков параллельных программ. Алгоритмы диспетчеризации характеризуются незначительной вычислительной трудоёмкостью, что обеспечивает их применимость в болынемасштабных ВС.

Разработаны программные средства NetMon и DCSMon мониторинга производительности каналов связи и состояния вычислительных ресурсов мультикластерных ВС.

На основе эвристических алгоритмов вложения создан пакет MPIGridMap оптимизации вложения MPI-программ, позволяющий сократить время их выполнения в мультикластерных ВС. Пакет включает средства формирования информационных графов программ и оптимизации их вложения в мультикла-стерные ВС.

Компоненты программного обеспечения внедрены в действующую пространственно-распределённую мультикластерную ВС Центра параллельных вычислительных технологий ФГОБУ ВПО "СибГУТИ" (ЦПВТ ФГОБУ ВПО "СибГУТИ") и Лаборатории вычислительных систем Института физики полупроводников им. A.B. Ржанова СО РАН (ИФП СО РАН).

Реализация и внедрение результатов работы. Результаты диссертационного исследования нашли применение в работах по созданию и развитию пространственно-распределённой мультикластерной ВС ЦПВТ ФГОБУ ВПО "СибГУТИ" и Лаборатории ВС ИФП СО РАН.

Исследования выполнялись в рамках федеральной целевой программы "Исследования и разработки по приоритетным направлениям развития научно-технологического комплекса России на 2007-2013 годы" (госконтракт 07.514.11.4015 "Сверхмасштабируемые средства вложения и отказоустойчивого выполнения параллельных программ для вычислительных систем экзафлопсно-го уровня производительности") и при выполнении работ по междисциплинарному интеграционному проекту СО РАН № 113 "Методы параллельной обработки данных и моделирование на распределенных вычислительных системах". Работа поддержана грантами Российского фонда фундаментальных исследований № 12-07-31016 (научный руководитель - Пазников A.A.), 12-07-00145, 11-07-00105, 09-07-00095, 08-07-00018, грантами Президента РФ по поддержке ведущих научных школ № НШ-2175.2012.9, НШ-5176.2010.9, НШ-2121.2008.9 и грантом по Программе "У.М.Н.И.К." Фонда содействия развитию малых форм предприятий в научно-технической сфере.

Результаты диссертации внедрены в учебный процесс. Они используются при чтении курсов лекций на Кафедре вычислительных систем ФГОБУ ВПО "СибГУТИ" по дисциплинам "Теория функционирования распределённых вычислительных систем" и "Высокопроизводительные вычислительные системы".

Внедрение результатов диссертационных исследований подтверждено соответствующими актами.

Достоверность полученных результатов подтверждается проведёнными экспериментами и моделированием, согласованностью с данными, имеющимися в отечественной и зарубежной литературе, а также экспертизами работы, прошедшими при получении грантов.

Апробация работы. Основные результаты работы докладывались и обсуждались на международных, всероссийских и региональных научных конференциях, в том числе:

- Международной конференции "International Conférence on Ubiquitous Information Management and Communication (ICUIMC)" (г. Кота-Кинабалу, Малайзия, 2013);

- Международной конференции "Математические и информационные технологии (MIT)" (г. Врнячка Баня, г. Будва, Сербия, Черногория, 2011);

- Международных научных студенческих конференциях "Студент и научно-технический прогресс (МНСК)" (г. Новосибирск, 2008, 2009, 2011, 2012);

- Всероссийской научно-технической конференции "Суперкомпьютерные технологии" (с. Дивноморское Геленджике кого района, 2012);

- Российской конференции с международным участием "Распределенные информационные и вычислительные ресурсы (DICR.)" (г. Новосибирск, 2010);

- Российской научной конференции с участием зарубежных учёных "Моделирование систем информатики" (г. Новосибирск, 2011);

- Всероссийской конференции молодых ученых по математическому моделированию и информационным технологиям (г. Новосибирск, 2011);

- Российских конференциях "Новые информационные технологии в исследовании сложных структур (ICAM)", (г. Томск, 2010, Алтайский Край, 2012);

- Российских научно-технических конференциях "Информатика и проблемы телекоммуникаций" (г. Новосибирск, 2008, 2009, 2010, 2011);

- Российской научно-технической конференции "Обработка информационных сигналов и математическое моделирование" (г. Новосибирск, 2012);

- Всероссийских научно-технических конференциях "Научное и технические обеспечение исследований и освоения шельфа Северного Ледовитого океана" (г. Новосибирск, 2010, 2012);

- Всероссийской научной конференции молодых учёных "Наука. Технологии. Инновации" (г. Новосибирск, 2011);

- Сибирской конференции по параллельным и высокопроизводительным вычислениям (г. Томск, 2009).

Публикации. По теме диссертации опубликовано 30 работ: 5 - в изданиях из списка ВАК, 2 свидетельства о государственной регистрации программы для ЭВМ, 23 - в материалах всероссийских и международных конференций. Результаты исследований отражены в отчётах по грантам и НИР.

Личный вклад. Содержание диссертационной работы и основные результаты, выносимые на защиту, отражают персональный вклад автора в опубликованные работы. Подготовка к публикации полученных результатов проводилась совместно с соавторами, при этом вклад диссертанта был определяющим. Все представленные в диссертации результаты получены лично автором.

Основные результаты диссертации, выносимые на защиту.

1. Алгоритмы децентрализованной диспетчеризации в пространственно-распределённых ВС, обеспечивающие минимизацию среднего времени обслуживания параллельных программ и увеличение пропускной способности системы.

2. Программный пакет децентрализованной диспетчеризации параллельных программ в мультикластерных ВС, реализующий живучее обслуживание потоков параллельных программ.

3. Эвристические алгоритмы вложения в пространственно-распределённые ВС параллельных программ, минимизирующие время информационных обменов между параллельными ветвями.

4. Программный инструментарий оптимизации вложения параллельных МР1-программ в иерархические мультикластерные ВС.

Структура и объем диссертации. Диссертационная работа состоит из введения, четырёх глав, заключения и списка литературных источников, изложенных на 145 страницах, а также приложения на 1 странице.

Содержание работы

В первой главе даётся представление о распределённых вычислительных системах с программируемой структурой, раскрывается понятие пространственно-распределённых мультикластерных и СПГО-систем. Рассмотрены задачи организации функционирования пространственно-распределённых ВС при обслуживании потоков параллельных программ.

Во второй главе рассматривается задача диспетчеризации программ в пространственно-распределённых ВС. Предлагается семейство алгоритмов децентрализованной диспетчеризации в пространственно-распределённых ВС параллельных программ, минимизирующих время их обслуживания. Предлагается алгоритм поиска субоптимальных локальных окрестностей децентрализованных диспетчеров. Приводятся результаты моделирования алгоритмов.

В третьей главе предлагаются эвристические алгоритмы вложения в иерархические пространственно-распределённые ВС параллельных программ. Алгоритмы учитывают все иерархические уровни коммуникационной среды системы и минимизируют время выполнения параллельных программ. Проводится сравнительный анализ созданных алгоритмов при вложении реальных МР1-программ.

В четвёртой главе описана архитектурная организация пространственно-распределённой мультикластерной ВС, в разработке которой диссертант принимал непосредственное участие. Приведено описание функциональной структуры разработанных на основе предложенных алгоритмов инструментов децентрализованной диспетчеризации и вложения параллельных программ.

В заключении сформулированы основные результаты диссертационной работы.

В приложении приведено описание структурной организации сегментов мультикластерной ВС.

Похожие диссертационные работы по специальности «Вычислительные машины и системы», 05.13.15 шифр ВАК

Заключение диссертации по теме «Вычислительные машины и системы», Пазников, Алексей Александрович

4.3. Выводы

1. Описана функциональная структура пространственно-распределённой мультикластерной ВС, её текущая конфигурация и программное обеспечение.

2. Семейство алгоритмов децентрализованной диспетчеризации параллельных программ реализовано в программном пакете СВгокег. Данный пакет включает в себя модули диспетчеризации и мониторинга. Его использование сокращает среднее время обслуживания параллельных программ, повышает пропускную способность ВС и позволяет реализовать живучее обслуживание потоков параллельных программ. Средства мониторинга позволяют получать информацию о загрузке подсистем и времени доставки файлов между подсистемами.

3. Разработан пакет МРЮгісІМар, выполняющий оптимизацию вложения параллельных МРІ-программ в соответствии с созданными алгоритмами. Пакет обеспечивает формирование информационных графов программ и выполняет оптимизацию их вложения в мультикластерные ВС. При вложении учитываются все иерархические уровни коммуникационных сред пространственно-распределённых ВС.

4. Инструментарий децентрализованной диспетчеризации и вложения параллельных программ является неотъемлемой частью инструментария обеспечения живучести болыпемасштабных мультикластерных ВС.

Заключение

Разработаны и исследованы алгоритмы и программные средства организации функционирования пространственно-распределённых мультикластерных ВС с иерархической структурой.

1. Предложены и исследованы алгоритмы децентрализованной диспетчеризации параллельных задач в мультикластерных ВС, обеспечивающие субминимальное время их обслуживания.

1.1. Построены алгоритмы децентрализованной диспетчеризации параллельных задач, минимизирующие время их обслуживания на мультикластерных ВС и увеличивающие пропускную способность систем. Разработанные алгоритмы позволяют минимизировать среднее время обслуживания параллельных программ и повысить пропускную способность системы. Выработаны рекомендации по применению предложенных алгоритмов.

1.2. Выполнено экспериментальное сравнение эффективности созданного инструментария децентрализованной диспетчеризации с методами централизованной диспетчеризации. Предложенные алгоритмы не менее эффективны, чем централизованные, и позволяют при этом обеспечить живучее обслуживание потоков параллельных задач.

1.3. Предложен стохастический алгоритм формирования субоптимальных структур локальных окрестностей децентрализованных диспетчеров. Сформированные структуры позволяют достичь субминимальных значений функции штрафа при обслуживании потоков параллельных задач.

1.4. Предложен алгоритм оценки времени доставки файлов между подсистемами мультикластерных и СКГО-систем, учитывающий текущую загрузку каналов связи. Относительное отклонение прогнозируемого времени передачи файлов от измеренного в среднем не превышает 35%, что является приемлемым в пространственно-распределённых ВС.

2. Разработаны эвристические алгоритмы вложения параллельных программ в мультикластерные ВС с иерархической структурой.

2.1. Предложены алгоритмы вложения параллельных программ, учитывающие все иерархические уровни мультикластерных ВС и позволяющие сократить время выполнения параллельных программ от 1,1 до 5 раз по сравнению с линейным вложением. Алгоритмы эффективны для программ, имеющих разреженные информационные графы с преобладанием дифференцированных обменов. В основе алгоритмов лежит процедура рекурсивного разбиения информационного графа задачи.

2.2. Проведено натурное моделирование, которое показало преимущество алгоритмов вложения, учитывающих все коммуникационные уровни системы. Показано, что пакеты разбиения обеспечивают сопоставимую эффективность вложения параллельных программ. Сформулированы рекомендации по выбору пакета разбиения и способа формирования информационных графов.

3. Разработан программный инструментарий децентрализованной диспетчеризации параллельных программ в мультикластерных ВС, состоящий из клиентской программы, диспетчера и средств мониторинга каналов связи и подсистем. Созданы программные средства субоптимального вложения параллельных МР1-программ в мультикластерные ВС.

4. При участии диссертанта создана мультикластерная ВС, конфигурация которой расширена средствами децентрализованной диспетчеризации, обеспечивающими живучее обслуживание потоков параллельных задач. Система также оснащена средствами оптимизации вложения параллельных МР1-программ, позволяющими на основе информации о структуре информационных обменов и структуре ВС получать субоптимальные вложения параллельных программ. Основные результаты диссертации опубликованы в работах [94-111, 146-154].

Список литературы диссертационного исследования кандидат технических наук Пазников, Алексей Александрович, 2013 год

Литература

1. Евреинов, Э. В. Однородные вычислительные системы / Э. В. Евреинов, В. Г. Хорошевский. — Новосибирск: Наука. Сибирское отд-е, 1978. — 319 с.

2. Хорошевский, В. Г. Архитектура вычислительных систем / В. Г. Хорошевский. - М.: МГТУ им. Н. Э. Баумана, 2008. - 520 с.

3. Хорошевский, В. Г. Распределенные вычислительные системы с программируемой структурой / В. Г. Хорошевский // Вестник СибГУТИ. — 2010.-Т. 10, № 2,- С. 3-14.

4. Волков, Ю. М. Распределённая вычислительная система АСТРА / Ю. М. Волков, Ю. Ф. Ерофеев, В. И. Жиратков //В кн.: Вычислительные системы. - 1975. - Т. 63. - С. 132-139.

5. Бурцев, В. С. Параллелизм вычислительных процессов и развитие архитектур суперЭВМ / В. С. Бурцев. - М.: ИВВС РАН, 1997. - 352 с.

6. Евреинов, Э. В. Однородные универсальные вычислительные системы высокой производительности / Э. В. Евреинов. — Новосибирск: Наука, 1966.- 308 с.

7. Евреинов, Э. В. О возможности построения вычислительных систем высокой производительности / Э. В. Евреинов, Ю. Г. Косарев. — Новосибирск: изд. СО АН СССР, 1962. - 39 с.

8. Поспелов, Д. А. Введение в теорию вычислительных систем / Д. А. Поспелов. — М.: Советское радио, 1972. — 280 с.

9. Бабаян, Б. А. Многопроцессорные ЭВМ и методы их проектирования / Б. А. Бабаян, А. В. Бочаров, А. С. Волин. — М.: Высшая школа, 1990. — 143 с.

10. Бетелин, В. Б. Архитектура цифровых процессоров обработки сигналов / В. Б. Бетелин, Е. В. Грузинова, А. А. Кольцова. — М.: Рос. АН, Науч. совет по комплекс, пробл. "Кибернетика 1993. — 20 с.

И. Воеводин, В. В. Параллельные вычисления / В. В. Воеводин, В. В. Воеводин. - СПб.: БХВ-Петербург, 2002. - 608 с.

12. Дмитриев, Ю. К. Вычислительные системы из мини-ЭВМ / Ю. К. Дмитриев, В. Г. Хорошевский. — М.: Радио и связь, 1982. — 304 с.

13. Евреинов, Э. В. Однородные вычислительные системы, структуры и среды / Э. В. Евреинов. — М.: Радио и связь, 1981. — 208 с.

14. Параллельный компьютер с программируемой под структуру задачи архитектурой / А. В. Каляев, И. А. Каляев, И. И. Левин, И. М. Пономарев // Труды шестого международного семинара Распределенная обработка информации. — Новосибирск: 1998. — С. 25-29.

15. Каляев, А. В. Модульно-наращиваемые многопроцессорные системы со структурно-процедурной организацией вычислений / А. В. Каляев, И. И. Левин. - М.: Янус-К, 2003. - 380 с.

16. Каляев, И. А. Реконфигурируемые мультиконвейерные вычислительные структуры / И. А. Каляев. - Ростов-на-Дону: ЮНЦ РАН, 2003. - 320 с.

17. Корнеев, В. В. Архитектура вычислительных систем с программируемой структурой / В. В. Корнеев. — Новосибирск: Наука, 1985.— 164 с.

18. Корнеев, В. В. Вычислительные системы / В. В. Корнеев, — М.: Гелиос АРВ, 2004.- 512 с.

19. Левин, В. К. Высокопроизводительные мультипроцессорные системы / В. К. Левин // Информационные технологии и вычислительные системы. - 1995. - № 1. - С. 12-21.

20. Левин, И. И. Алгоритм коммутации элементов многопроцессорной системы со структурно-процедурной организацией вычислений / И. И. Левин, Л. М. Сластен // Материалы Всероссийской научно-технической конференции "Методы и средства обработки информации". — 2003. — С. 119-124.

21. Миренков, Н. Н. Параллельное программирование для многомодульных вычислительных систем / Н. Н. Миренков. — М.: Радио и связь, 1989.— 319 с.

22. Прангишвили, И. В. Параллельные вычислительные системы с общим управлением / И. В. Прангишвили, С. . Виленкин, И. Л. Медведев, — М.: Энергопромиздат, 1983. — 313 с.

23. Прангишвили, И. В. Многопроцессорные и локальные сети микро-ЭВМ в распределенных системах управления / И. В. Прангишвили. — М.: Энер-гоатомиздат, 1985. — 272 с.

24. Г. Е. Пухов В. Ф. Евдокимов, М. В. С. Разрядно-аналоговые вычислительные системы / М. В. С. Г. Е. Пухов, В. Ф. Евдокимов, — М.: Советское радио, 1978. — 255 с.

25. Foster, I. Globus: A Metacomputing Infrastructure Toolkit / I. Foster, C. Kesselman // Intl J. Supercomputer Applications.— 1997,— Vol. 11, no. 3,- P. 115-128.

26. Foster, I. The Grid: Blueprint for a New Computing Infrastructure / I. Foster, C. Kesselman. — Morgan-Kaufmann, 1998.

27. Foster, I. The Anatomy of the Grid: Enabling Scalable Virtual Organizations / I. Foster // Proceedings of the 7th International Euro-Par Conference Manchester on Parallel Processing. — 2001. — P. 1-4.

28. Foster, I. What is the Grid? A Three Point Checklist [Электронный ресурс].— 2002. Режим доступа: http://www-fp.mcs.anl.gov/~foster/Articles/WhatlsTheGrid.pdf,

свободный (дата обращения 28.01.2013).

29. Foster, I. The Physiology of the Grid: An Open Grid Services Architecture for Distributed Systems Integration / I. Foster // Open Grid Service Infrastructure WG, Global Grid Forum. - 2002.

30. Huedo, E. A framework for adaptive execution on grids / E. Huedo, R. S. Montero, I. M. Llorente // Software - Practice and Experience (SPE).— 2004,— Vol. 34,- P. 631-651.

31. Huedo, E. An Experimental Framework For Executing Applications in Dynamic Grid Environments: Tech. Rep. 2002-43 / E. Huedo, R.. S. Montero, I. M. Llorente: ICASE, 2002.

32. Huedo, E. A recursive architecture for hierarchical grid resource management / E. Huedo, R.. S. Montero, I. M. Llorente // Future Generation Computer Systems. - 2009. - Vol. 25. - P. 401-405.

33. Leal, K. A decentralized model for scheduling independent tasks in Federated Grids / K. Leal, E. Huedo, I. M. Llorente // Future Generation Computer Systems. - 2009. - Vol. 25. - P. 840-852.

34. Montero, R.. S. Grid R.esource Selection for Opportunistic Job Migration / R.. S. Montero, E. Huedo, I. M. Llorente // 9th International Euro-Par Conference. - Vol. 2790. - 2003. - P. 366-373.

35. Berman, F. Adaptive computing on the grid using AppLeS / F. Berman, R.. Wolski, H. Casanova // IEEE Trans, on Parallel and Distributed Systems. — Vol. 34. - 2003. - P. 369-382.

36. Heuristics for Scheduling Parameter Sweep Applications in Grid Environments / H. Casanova, A. Legrand, D. Zagorodnov, F. Berman //In Proc. of the 9th Heterogeneous Computing Workshop (HCW'OO). - 2000. - P. 394-363.

37. New Grid Scheduling and Rescheduling Methods in the GrADS Project / K. Cooper, A. Dasgupta, C. K. K. Kennedy et al. // Proc. of the 18th International Parallel and Distributed Processing Symposium (IPDPS'04).— Vol. 34. - 2004. - P. 199-206.

38. VGrADS: enabling e-Science workflows on grids and clouds with fault tolerance / L. R.amakrishnan, C. Koelbel, Y. Kee et al. // In: SC'09 The International Conference for High Performance Computing, Networking, Storage and Analysis. - 2009. - 12 pp.

39. Buyya, R.. Nimrod/G: An architecture for a resource management and scheduling system in a global computational Grid / R,. Buyya, D. Abramson, J. Giddy // Proc. of the 4th International Conference on High Performance Computing in Asia-Pacific Region. - 2000. - P. 283-289.

40. Buyya, R,. An Evaluation of Economy-based R.esource Trading and Scheduling on Computational Power Grids for Parameter Sweep Applications / R.. Buyya, J. Giddy, D. Abramson // Sweep Applications, The Second Workshop on Active Middleware Services (AMS 2000), In conjunction with HPDC 2001.— 2000,- 10 pp.

41. Buyya, R.. A Computational Economy for Grid Computing and its Implementation in the Nimrod-G R.esource Broker / R.. Buyya, D. Abramson, J. Giddy // Future Generation Computer Systems (FGCS).— 2001,— Vol. 18, no. 8,— P. 1061-1074.

42. Condor-G: A computation management agent for multi-institutional grids / J. Frey, T. Tannenbaum, M. Livny et al. // Cluster Computing. — 2001.— Vol. 5. - P. 237-246.

43. Evaluation of Meta-scheduler Architectures and Task Assignment Policies for High Throughput Computing: Tech. Rep. 5576 / E. Normale, S. Lyon, E. Caron et al.: Ecole Normale Supérieure de Lyon, 2005.

44. A Comparison Between two Grid Scheduling Philosophies: EGEE WMS and GridWay / J. L. Vazquez-Poletti, E. Huedo, R. S. Montera, I. M. Llorente // Multiagent and Grid Systems. - 2007. - Vol. 3, no. 4. - P. 429-439.

45. Andreetto, P. Practical approaches to grid workload and resource management in the EGEE project / P. Andreetto, S. Borgia, A. Dorigo // In CHEP '04: Proceedings of the Conference on Computing in High Energy and Nuclear Physics. - Vol. 2. - 2004. - P. 899-902.

46. Supporting Internet-Scale Multi-Agent Systems / N. J. E. Wijngaards, B. J. Overeinder, M. van Steen, F. M. T. Brazier // Data and Knowledge Engineering. - 2002. - Vol. 41. - P. 229-245.

47. Gradwell, P. Grid scheduling with agents. — 2003.

48. A Multiagent-Based Approach to the Grid-Scheduling Problem / M. Solar, J. Rojas, M. Mendoza et al. // CLEI Electronic Journal — 2012.— Vol. 15, no. 2. — 16 pp.

49. Altameem, T. An agent-based approach for dynamic adjustment of scheduled jobs in computational grids / T. Altameem, M. Amoon // Journal of Computer and Systems Sciences International. — 2010. — Vol. 49, no. 5. — P. 765-772.

50. Multiagent Distributed Grid Scheduler / V. Korneev, D. Semenov, A. Kiselev et al. // Proceedings of the Federated Conference on Computer Science and Information Systems. - 2011. - P. 577-580.

51. SmartGRID: A Fully Decentralized Grid Scheduling Framework Supported by Swarm Intelligence / Y. Huang, A. Brocco, P. Kuonen et al. // Proceedings of the 2008 Seventh International Conference on Grid and Cooperative Computing. - 2008. - P. 160-168.

52. Pegasus: A framework for mapping complex scientific workflows onto distributed systems / E. Deelman, G. Singh, M.-H. Su et al. // Scientific Programming. - 2005. - Vol. 13, no. 3. - P. 219-237.

53. The Pegasus portal: web based grid computing / G. Singh, E. Deelman, G. Mehta et al. // Proceedings of the 2005 ACM symposium on Applied computing. - 2005. - P. 680-686.

54. Adaptive workflow processing and execution in pegasus / K. Lee, N. W. Paton, R. Sakellariou et al. //In 3rd Intl Workshop on Workflow Management and Applications in Grid Environments (WaGe08), in Proc. 3rd Intl. Conf. on Grid and Pervasive Computing Symposia/Workshops. — 2008. — P. 99-106.

55. Laszewski, G. Work Coordination for Grid Computing [Электронный ресурс]. Режим доступа: http://cyberaide.googlecode.com/svn/trunk/papers/anl/vonLaszewski-w свободный (дата обращения 28.01.2013).

56. Taverna, reloaded / P. Missier, S. Soiland-Reyes, S. Owen et al. // SSDBM 2010.- 2010.

57. Taverna: a tool for building and running workflows of services / D. Hull, K. Wol-stencroft, R. Stevens et al. // Nucleic Acids Research. — 2006,— Vol. 34.— P. 729-732.

58. Taverna: lessons in creating a workflow environment for the life sciences / T. Oinn, M. Greenwood, M. Addis et al. // Concurrency and Computation: Practice and Experience. - 2006. - Vol. 18, no. 10. - P. 1067-1100.

59. Grid Enabling Applications Using Triana / I. T. Matthew, M. Shields, I. Wang, R,. Philp //In Workshop on Grid Applications and Programming Tools. — 2003.

60. Programming scientific and distributed workflow with Triana services: R.esearch Articles / C. David, G. Gombas, A. Harrison et al. // Concurrency and Computation: Practice and Experience - Workflow in Grid Systems. — 2006. — Vol. 18, no. 10,- P. 1021-1037.

61. Distributed computing with Triana on the Grid: R.esearch Articles / I. Taylor, I. Wang, M. Shields, S. Majithia // Concurrency and Computation: Practice and Experience. - 2005. - Vol. 17, no. 9. - P. 1197-1214.

62. ASKALON: A Grid Application Development and Computing Environment / T. Fahringer, R.. Prodan, R.. Duan et al. // Proceedings of the 6th IEEE/ACM International Workshop on Grid Computing. — 2005. — P. 122-131.

63. Wieczorek, M. Scheduling of scientific workflows in the askalon grid environment / M. Wieczorek, R.. Prodan, T. Fahringer // ACM SIGMOD R.ecord Journal. - 2005. - Vol. 34. - P. 56-62.

64. Workflow enactment in iceni / S. Mcgough, L. Young, A. Afzal et al. // In UK e-Science All Hands Meeting. - 2004. - P. 894-900.

65. Scheduling Architecture and Algorithms within the ICENI Grid Middleware / L. Young, S. Mcgough, S. Newhouse, J. Darlington //In UK e-Science All Hands Meeting. - 2003. - P. 5-12.

66. Yu, J. Gridbus Workflow Enactment Engine.

67. Scientific workflow management and the Kepler system. Special issue: workflow in grid systems / B. Ludascher, I. Altintas, C. Berkley et al. // Concurr. Comput.: Pract. Exp. - 2006. - P. 1039-1065.

68. Kepler: An Extensible System for Design and Execution of Scientific Workflows / I. Altintas, C. Berkley, E. Jaeger et al. // IN SSDBM. — 2004,-P. 21-23.

69. GridAnt: A Client-Controllable Grid Workflow System / K. Amin, G. Laszews-ki, M. Hategan et al. //In 37th Hawai'i International Conference on System Science, Island of Hawaii, Big Island. — 2004. — P. 5-8.

70. Romberg, M. The UNICOR.E Grid Infrastructure / M. Romberg // Scientific Programming, Special Issue on Grid Computing. — 2002. — Vol. 10. — P. 2002.

71. Flynn, M. Very high-speed computing system / M. Flynn // Proc. of the IEEE. - Vol. 54. - 1966. - P. 1901-1909.

72. Flynn, M. Some Computer Organisations and Their Effectiveness / M. Flynn // IEEE Trans. Computers. - Vol. 9 (21). - 1972. - P. 948-960.

73. Гергель, В. П. Основы параллельных вычислений для многопроцессорных вычислительных систем / В. П. Гергель, Р. Г. Стронгин. — Нижний Новгород: Изд-во ННГУ, 2003. - 184 с.

74. Таненбаум, Э. Распределенные системы: принципы и парадигмы / Э. Та-ненбаум. - СПб.: Питер, 2003. - 877 с.

75. Хокни, Р. Параллельные ВС. Архитектура, программирование и алгоритмы / Р. Хокни, К. Джессоуп. — М.: Радио и связь, 1986. — 392 pp.

76. Монахов, О. Г. Параллельные системы с распределенной памятью: структуры и организация взаимодействий / О. Г. Монахов, Э. А. Монахова.— Новосибирск: ИВМиМГ СО РАН, 2000. - 242 с.

77. Монахов, О. Г. Параллельные системы с распределённой памятью: управление ресурсами и заданиями / О. Г. Монахов, Э. А. Монахова. — Новосибирск: ИВМиМГ СО РАН, 2001. - 168 с.

78. Малышкин, В. Э. Параллельное программирование мультикомпьютеров / В. Э. Малышкин, В. Д. Корнеев. - Новосибирск: НГТУ, 2006.- 296 с.

79. Элементы параллельного программирования / В. А. Вальковский, В. Е. Котов, А. Г. Марчук, Н. Н. Миренков. — М.: Радио и связь, 1983. — 240 с.

80. Языки и параллельные ЭВМ : сб. ст. — 1990.

81. Яненко, Н. Н. Параллельные вычисления в задачах математической физики на вычислительных системах с программируемой структурой / Н. Н. Яненко, В. Г. Хорошевский, А. Д. Рычков // Электронное моделирование. - 1984. - Т. 6, № 1. - С. 3-8.

82. Косарев, Ю. Г. Распараллеливание по циклам / Ю. Г. Косарев // Вычислительные системы. — 1967. — Т. 24. — С. 3-20.

83. Воеводин, В. В. Математические модели и методы в параллельных процессах / В. В. Воеводин. - М.: Наука, 1986. - 296 с.

84. Топорков, В. В. Модели распределенных вычислений / В. В. Топорков. — М.: ФИЗМАТЛИТ, 2004. - 320 с.

85. И. В. Панфилов, А. М. П. Вычислительные системы / А. М. П. И. В. Панфилов. — М.: Советское радио, 1980. — 302 с.

86. Сайт проекта Globus Toolkit [Электронный ресурс]. Режим доступа: http://www.globus.org/toolkit/, свободный (дата обращения 28.01.2013).

87. AL-Khateeb, A. Job Type Approach for Deciding Job Scheduling in Grid Computing Systems / A. AL-Khateeb, R. Abdullah, N. A. Rashid // Journal of Computer Science. - 2009. - Vol. 5. - P. 745-750.

88. Dong, F. Scheduling Algorithms for Grid Computing: State of the Art and Open Problems: Tech. Rep. 2006-504 / F. Dong, S. Akl: School of Computing, Queen's University Kingston, Ontario, 2006.

89. I. Gaweda, C. W. Grid Brokers and Metaschedulers. Market Overview: Tech. rep. / C. W. I. Gaweda: School of Computing, Queen's University Kingston, Ontario, 2006.

90. Сайт проекта Grid Way [Электронный ресурс]. Режим доступа: http: / / www. gr idway. org/doku. php, свободный (дата обращения 28.01.2013).

91. Decentralized Grid Scheduling with Evolutionary Fuzzy Systems / F. Alexander, C. Grimme, J. Lepping, A. Papaspyrou // Job Scheduling Strategies for Parallel Processing. - 2009. - P. 16-36.

92. Yu, J. A Taxonomy of Workflow Management Systems for Grid Computing: Tech. rep. / J. Yu, R. Buyya: Journal of Grid Computing, 2005.

93. Корнеев, В. В. Архитектура вычислительных систем с программируемой структурой / В. В. Корнеев. — Новосибирск: Наука, 1985.— 164 с.

94. Kurnosov, М. G. Efficiency analysis of decentralized grid scheduling with job migration and replication / M. G. Kurnosov, A. A. Paznikov // Proc. of ACM International Conference on Ubiquitous Information Management and Communication (IMCOM/ICUIMC). - 2013. - 7 pp.

95. Курносов, M. Г. Децентрализованные алгоритмы диспетчеризации пространственно-распределённых вычислительных систем /

М. Г. Курносов, А. А. Пазников // Вестник ТГУ. Управление, вычислительная техника и информатика.— 2012.— Уо1. 18, по. 1.— Р. 133-143.

96. Курносов, М. Г. Моделирование алгоритмов децентрализованного обслуживания потоков параллельных задач в СКГО-системах / М. Г. Курносов, А. А. Пазников // Проблемы информатики,— 2012. — по. 2. - Р. 45-54.

97. Масштабируемый инструментарий параллельного мультипрограммирования пространственно-распределенных вычислительных систем / В. Г. Хорошевский, М. Г. Курносов, С. Н. Мамойленко et а1. // Вестник СибГУТИ. - 2011.- по. 4.— Р. 3-19.

98. Курносов, М. Г. Инструментарий децентрализованного обслуживания потоков параллельных МР1-задач в пространственно-распределенных мультикластерных вычислительных системах / М. Г. Курносов, А. А. Пазников // Вестник ТГУ. Управление, вычислительная техника и информатика. — 2011. — Уо1. 16, по. 3. — Р. 78-85.

99. Курносов, М. Г. Децентрализованные алгоритмы управления ресурсами распределенных вычислительных и СКГО-систем / М. Г. Курносов, А. А. Пазников // Материалы Международной конференции "Математические и информационные технологии, М1Т-2011".— 2011.— 6 рр.

100. Курносов, М. Г. Моделирование алгоритмов децентрализованного обслуживания потоков параллельных задач в СКГО-системах / М. Г. Курносов, А. А. Пазников // Материалы Российской научной конференции с участием зарубежных исследователей "Моделирование систем информатики". — 2011. — 10 рр.

101. Курносов, М. Г. Исследование алгоритмов диспетчеризации задач в пространственно-распределенных вычислительных системах / М. Г. Курносов, А. А. Пазников / / Материалы Российской научно-технической конференции "Информатика и проблемы телекоммуникаций".— Vol. 1.— Новосибирск: СибГУТИ, 2011.— Р. 199-200.

102. Пазников, А. А. Анализ алгоритмов диспетчеризации параллельных программ в пространственно-распределённых вычислительных системах / А. А. Пазников / / Материалы XLIX Международной научной студенческой конференции "Студент и научно-технический прогресс". — Новосибирск: НГУ, 2011,- Р. 228.

103. Пазников, А. А. Алгоритмы диспетчеризации мультикластерных вычислительных систем на основе миграции и репликации параллельных MPI-программ / А. А. Пазников // Материалы всероссийской научной конференции молодых учёных "Наука. Технологии. Инновации". — Vol. 1. - Новосибирск: НГТУ, 2011. - Р. 63-66.

104. Курносов, М. Г. Программный пакет децентрализованного обслуживания потоков параллельных задач в пространственно-распределенных вычислительных системах / М. Г. Курносов, А. А. Пазников // Вестник СибГУТИ. - 2010. - Vol. 10, по. 2. - Р. 79-86.

105. Курносов, М. Г. Моделирование алгоритмов децентрализованной диспетчеризации параллельных задач в пространственно-распределенных мультикластерных вычислительных системах / М. Г. Курносов, А. А. Пазников // Материалы XIII Российской конференции с участием иностранных ученых "Распределенные информационно-вычислительные ресурсы" (DICR.-2010). - Новосибирск: ИВТ СО РАН, 2010. - 7 pp.

106. Инструментарий организации эффективного выполнения параллельных программ на распределенных вычислительных системах / М. Г. Курносов, А. А. Пазников, Ю. Е. Макарова, В. В. Апостолов // Материалы Всероссийской научно-технической конференции "Научное и технические обеспечение исследований и освоения шельфа Северного Ледовитого океана". - 2010. - Р. 49-53.

107. Курносов, М. Г. Об организации функционирования пространственно-распределенных мультикластерных вычислительных систем / М. Г. Курносов, А. А. Пазников // Материалы Российской научно-технической конференции "Информатика и проблемы телекоммуникаций".— Vol. 1.— Новосибирск: СибГУТИ, 2010. — Р. 159-161.

108. Курносов, М. Г. Децентрализованная диспетчеризация параллельных программ в распределенных вычислительных системах / М. Г. Курносов, А. А. Пазников // Материалы Девятой международной конференции "Высокопроизводительные параллельные вычисления на кластерных системах". - Владимир: ВлГУ, 2009. - Р. 260-265.

109. Пазников, А. А. Алгоритмы децентрализованной диспетчеризации параллельных программ в пространственно-распределённых вычислительных системах / А. А. Пазников // Материалы Пятой сибирской конференции по параллельным вычислениям. — 2009. — Р. 161-165.

110. Пазников, А. А. Средства децентрализованной диспетчеризации задач в распределенных вычислительных системах / А. А. Пазников // Материалы XLVII Международной научной студенческой конференции "Студент и научно-технический прогресс". — Новосибирск: НГУ, 2009. — Р. 210.

111. Курносов, M. Г. Диспетчеризация параллельных задач в пространственно-распределенных вычислительных системах / М. Г. Курносов, А. А. Пазников // Материалы Российской научно-технической конференции "Информатика и проблемы телекоммуникаций". — Vol. 1. — Новосибирск: СибГУТИ, 2009. — Р. 125-127.

112. Page, Е. S. On Monte-Carlo Methods in Congestion on Problems: Searching for an Optimum in Discrete Situations / E. S. Page // Operation Research. — 1965. - Vol. 13, no. 2. - P. 631-651.

113. Пазников, А. А. Стохастический алгоритм формирования локальных окрестностей децентрализованных диспетчеров мультикластерных систем / А. А. Пазников // Материалы Российской научно-технической конференции "Обработка информационных сигналов и математическое моделирование". — Новосибирск: СибГУТИ, 2012.— Р. 167-168.

114. Gabriel, Е. Implementing MPI with optimized algorithms for metacomputing / E. Gabriel, M. R.esch, R„ R.uhle // In Proc. of the third MPI Developer's and User's Conference. - 1999. - P. 31-41.

115. Fernandez, E. Supporting efficient execution of MPI applications across multiple sites / E. Fernandez, E. Heymann, M. A. Senar //In Proc. of Euro-Par'2006. - 2006. - P. 383-392.

116. High performance relay mechanism for MPI communication libraries run on multiple private IP address clusters / R. Takano, M. Matsuda, T. Kudoh et al. //In Proc. of 8th IEEE international symposium on cluster computing and the grid (CCGR.ID 2008). - 2008. - P. 401-408.

117. Saito, H. Locality-aware Connection Management and R,ank Assignment for Wide-area MPI / H. Saito, K. Taura // In Proc. of the 7th IEEE International

Symposium on Cluster Computing and the Grid (CCGRID 2007).- 2007,-P. 249-256.

118. An Architecture of Stampi: MPI Library on a cluster of parallel Computers / T. Imamura, Y. Tsujita, H. Koide, H. Takemiya //In Proc. of the 7th European PVM/MPF2000. - 2000. - P. 200-207.

119. The NumGRID metacomputing system / N. V. Malyshkin, B. Roux, D. Fougere, V. E. Malyshkin //In Bulletin of the Novosibirsk Computing Center, series Computer Science. — 2004. — Vol. 21. — P. 57-68.

120. Филамофитский, M. П. Система поддержки метакомпьютерных расчетов X-Com: архитектура и технология работы / М. П. Филамофитский // Вычислительные методы и программирование. — 2004. — по. 5. — Р. 123-137.

121. Anderson, D. P. Boinc: A system for public-resource computing and storage / D. P. Anderson // 5th IEEE/ACM International Workshop on Grid Computing. - 2004. - P. 4-10.

122. Bokhari, S. H. On the Mapping Problem / S. H. Bokhari // IEEE Transactions on Computers. - 1981. - Vol. 30, no. 3. - P. 207-214.

123. Хорошевский, В. Г. Алгоритмы распределения ветвей параллельных программ по процессорным ядрам вычислительных систем / В. Г. Хорошевский, М. Г. Курносов // Автометрия. - 2008. - Т. 44, № 2. - С. 56-67.

124. hwloc: a Generic Framework for Managing Hardware Affinities in HPC Applications / F. Broquedis, J. Clet-Ortega, S. Moreaud et al. // Int. Conference on Parallel, Distributed and Network-Based Processing (PDP2010). - 2010. -P. 180-186.

125. Mercier, G. Towards an Efficient Process Placement Policy for MPI Applications in Multicore Environments / G. Mercier, J. Clet-Ortega // Proceedings of the 16th European PVM/MPI Users' Group Meeting on Recent Advances in Parallel Virtual Machine and Message Passing Interface. — 2009. — P. 104-115.

126. Pellegrini, F. Distillating knowledge about SCOTCH / F. Pellegrini // Combinatorial Scientific Computing. — Dagstuhl Seminar Proceedings no. 09061.— 2009. - P. 180-186.

127. MPIPP: an automatic profile-guided parallel process placement toolset for SMP clusters and multiclusters / H. Chen, W. Chen, J. Huang et al. // Proceedings of the 20th annual international conference on Supercomputing. — 2006. - P. 353-360.

128. Yu, H. Topology maping for Blue Gene/L supercomputer / H. Yu, I.-H. Chung, J. Moreira // In Proc. Of SC'06. - SC '06 no. 116. - 2006.

129. Bhanot, G. Optimizing task layout on the Blue Gene/L supercomputer / G. Bhanot // IBM Journal of Research and Development. — 2005,— Vol. 49, no. 2. - P. 489-500.

130. Mapping Communication Layouts to Network Hardware Characteristics on Massive-Scale Blue Gene Systems / P. Balaji, R.. Gupta, A. Vishnu, P. Beck-man // Special edition of the Springer Journal of Computer Science on Research and Development (presented at the International Supercomputing Conference (ISC)). - 2011. - Vol. 26. - P. 247-256.

131. Automated mapping of regular communication graphs on mesh interconnects / A. Bhatele, G. R„ Gupta, L. V. Kale, I.-H. Chung // 2010 International Conference on High Performance Computing. — 2010. — P. 1-10.

132. Bhatele, A. Heuristic-Based Techniques for Mapping Irregular Communication Graphs to Mesh Topologies / A. Bhatele, L. V. Kale // 13th IEEE International

Conference on High Performance Computing and Communication. — 2011.— P. 765-771.

133. Jeannot, E. Near-optimal placement of MPI processes on hierarchical NUMA architectures / E. Jeannot, G. Mercier // Proceedings of the 16th international Euro-Par conference on Parallel processing: Part II. — Euro-Par'10. — 2010. — P. 199-210.

134. Mercier, G. Improving MPI applications performance on multicore clusters with rank reordering / G. Mercier, E. Jeannot // Proceedings of the 18th European MPI Users' Group conference on Recent advances in the message passing interface. — 2011. — P. 39-49.

135. Design of a scalable InfiniBand topology service to enable network-topology-aware placement of processes / H. Subramoni, S. Potluri, K. Kandalla et al. // Proceedings of the International Conference on High Performance Computing, Networking, Storage and Analysis. — 2012.— P. 70:1-70:12.

136. Bhatele, A. Dynamic topology aware load balancing algorithms for molecular dynamics applications / A. Bhatele, L. V. Kale, S. Kumar //In Proc. of the 2009 ACM International Conference on Supercomputing (ICS'09).— 2009,— P. 110-116.

137. Mapping Dense LU Factorization on Multicore Supercomputer Nodes / J. Lif-flander, P. Miller, R. Venkataraman et al. // Parallel and Distributed Processing Symposium (IPDPS), 2012 IEEE 26th International. - 2012. - P. 596-606.

138. Traff, J. L. Implementing the MPI Process Topology Mechanism / J. L. Traff // Proceedings of the ACM/IEEE conference on Supercomputing.— 2002,— P. 1-14.

139. Karlsson, C. Optimizing Process-to-Core Mappings for Application Level Multi-dimensional MPI Communications / C. Karlsson, T. Davies, Z. Chen //

Proceedings of the 2012 IEEE International Conference on Cluster Computing. - 2012. - P. 486-494.

140. The scalable process topology interface of MPI 2.2 / T. Hoefler, R. Rabenseifn-er, H. Ritzdorf et al. // Concurr. Comput. : Pract. Exper. — 2011.— Vol. 23, no. 4.- P. 293-310.

141. Multi-core and network aware MPI topology functions / M. J. Rashti, J. Green, P. Balaji et al. // Proceedings of the 18th European MPI Users' Group conference on Recent advances in the message passing interface. — 2011. — P. 50-60.

142. Hoefler, T. Generic Topology Mapping Strategies for Large-scale Parallel Architectures / T. Hoefler, M. Snir // In Proc. of the 2011 ACM International Conference on Supercomputing (ICS'll). — 2011. — P. 75-85.

143. Hoefler, T. Optimized routing and process mapping for arbitrary network topologies. — 2012.

144. Process Mapping for MPI Collective Communications / J. Zhang, J. Zhai, W. Chen, W. Zheng // Proceedings of the 15th International Euro-Par Conference on Parallel Processing. - 2009. - P. 81-92.

145. Mapping applications with collectives over sub-communicators on torus networks / A. Bhatele, T. Gamblin, S. H. Langer et al. // SC '12 Proceedings of the International Conference on High Performance Computing, Networking, Storage and Analysis. - 2012. - P. 97:1-97:11.

146. Курносов, M. Г. Эвристические алгоритмы отображения параллельных MPI-программ на мультикластерные вычислительные и GRID-системы / М. Г. Курносов, А. А. Пазников // Вычислительные методы и программирование. — 2013. — по. 14. — Р. 1-10.

147. Курносов, М. Г. Вложение параллельных программ в пространственно-распределённые вычислительные системы на основе методов разбиения графов / М. Г. Курносов, А. А. Пазников // Материалы 2-й Всероссийской научно-технической конференции "Суперкомпьютерные технологии" (СКТ-2012).— Ростов-на-Дону: Издательство Южного федерального университета, 2012. — Р. 135-139.

148. Курносов, М. Г. Эвристические алгоритмы вложения параллельных MPI-программ в мультикластерные вычислительные системы / М. Г. Курносов, А. А. Пазников // Материалы Девятой российской конференции с международным участием "Новые информационные технологии в исследовании сложных структур". — Томск: HTJ1, 2012. — Р. 10.

149. Пазников, А. А. Эвристические алгоритмы вложения параллельных MPI-программ в мультикластерные вычислительные системы / А. А. Пазников // Материалы 50-й Международной научной студенческой конференции "Студент и научно-технический прогресс": Программирование и вычислительные системы. — Новосибирск: НГУ, 2012,- Р. 37.

150. Курносов, М. Г. Сравнительный анализ методов вложения параллельных MPI-программ в мультикластерные вычислительные системы / М. Г. Курносов, А. А. Пазников // Материалы Российской научно-технической конференции "Обработка информационных сигналов и математическое моделирование". — Новосибирск: СибГУТИ, 2012. — Р. 160-162.

151. Курносов, М. Г. Применение многоуровневых методов разбиения графов параллельных программ для оптимизации их вложения в мультикластерные вычислительные системы / М. Г. Курносов,

А. А. Пазников // Материалы Второй Всероссийской научно-технической конференции "Научное и технические обеспечение исследований и освоения шельфа Северного Ледовитого океана". — 2012. — Р. 109-113.

152. Пазников, А. А. Комбинаторный алгоритм вложения параллельных программ в вычислительные системы / А. А. Пазников // Материалы XLVI Международной научной студенческой конференции "Студент и научно-технический прогресс". — Новосибирск: НГУ, 2008. — Р. 218-219.

153. Пазников, А. А. Точный алгоритм вложения параллельных программ в структуры вычислительных систем / А. А. Пазников // Материалы Российской научно-технической конференции "Информатика и проблемы телекоммуникаций",— Vol. 1.— Новосибирск: СибГУТИ, 2008.— Р. 152-153.

154. Курносов, М. Г. Об оптимизации распределения ветвей параллельных MPI-программ по процессорным ядрам вычислительного кластера / М. Г. Курносов, А. А. Пазников // Материалы VII Международной конференции-семинара "Высокопроизводительные вычисления на кластерных системах". — Нижний Новгород: ННГУ, 2007. — Р. 218-225.

155. Хокни, Р. Параллельные ЭВМ / Р. Хокни, К. Джессоуп.— М.: Радио и связь, 1986. — 390 pp.

156. Hockney, R. The communication challenge for MPP: Intel Paragon and Meiko CS-2 / R. Hockney // Parallel Computing.- 1994,- Vol. 20, no. 3.-P. 389-398.

157. Гэри, M. Вычислительные машины и труднорешаемые задачи / М. Гэри, Д. Джонсон. - М.: Мир, 1982. - 416 с.

158. Garey, М. Some simplified NP-complete graph problems / M. Garey, D. Johnson, L. Stockmeyer // Theoretical Computer Science. — 2006. — P. 84-96.

159. Hendrickson, В. A multilevel algorithm for partitioning graphs / B. Hendrickson, R. Leland // Proc. of the 1995 ACM/IEEE conference on Supercomputing (CDROM). - Supercomputing '95 no. 28. - 1995. - P. 1-14.

160. Karypis, G. Multilevel k-way partitioning scheme for irregular graphs / G. Karypis, V. Kumar // Journal of Parallel and Distributed computing. — 1998. - Vol. 48. - P. 96-129.

161. Fiduccia, С. M. A linear-time heuristic for improving network partitions / С. M. Fiduccia, R. M. Mattheyses // Proc. of conference "Design Automation". - DAC '82. - 1982. - P. 175-181.

162. Efficient Message Passing on Multi-Clusters: An IPv6 Extension to Open MPI / C. Kauhaus, A. Knoth, T. Peiselt, D. Fey // Proceedings of KiCC'07, Chemnitzer Informatik Berichte. — 2007.

163. Challenges of MPI over IPv6 / A. Knoth, C. Kauhaus, D. Fey et al. // Proceedings of the Fourth International Conference on Networking and Services. — 2008. - P. 242-247.

164. Savola, P. Observations of IPv6 traffic on a 6to4 relay / P. Savola // SIGCOMM Comput. Commun. Rev. - 2005. - Vol. 35, no. 1. - P. 23-28.

165. Сайт проекта SLURM [Электронный ресурс]. Режим доступа: http://www.open-mpi.org/, свободный (дата обращения 28.01.2013).

166. Сайт проекта VampirTrace [Электронный ресурс]. Режим доступа: http://www.tu-dresden.de/die_tu_dresden/zentrale_einrichtungen/zih/ свободный (дата обращения 28.01.2013).

167. The Landscape of Parallel Computing Research: A View from Berkeley: Tech. Rep. UCB/EECS-2006-183 / K. Asanovic, R. Bodik, В. C. Catanzaro et al.:

Electrical Engineering and Computer Sciences, University of California, Berkeley, 2006.

168. Abou-Rjeili, A. Multilevel Algorithms for Partitioning Power-Law Graphs /

A. Abou-Rjeili, G. Karypis // IEEE International Parallel and Distributed Processing Symposium (IPDPS). - IPDPS'06. - 2006.

169. Сайт проекта OpenMP [Электронный ресурс]. Режим доступа: http://openmp.org/wp/, свободный (дата обращения 28.01.2013).

170. Сайт проекта MPICH [Электронный ресурс]. Режим доступа: http://www.mpich.org/, свободный (дата обращения 28.01.2013).

171. Productivity and performance using partitioned global address space languages / K. Yelick, D. Bonachea, W.-Y. Chen et al. // Proceedings of the 2007 international workshop on Parallel symbolic computation. — 2007. — P. 24-32.

172. Chamberlain, B. L. Parallel Programmability and the Chapel Language /

B. L. Chamberlain, D. Callahan, H. P. Zima // International Journal of High Performance Computing Applications. — 2007. — Vol. 21, no. 3. — P. 291-312.

173. X10: an object-oriented approach to non-uniform cluster computing / P. Charles, C. Grothoff, V. Saraswat et al. // Proceedings of the 20th annual ACM SIGPLAN conference on Object-oriented programming, systems, languages, and applications. — 2005. — P. 519-538.

174. An evaluation of global address space languages: co-array fortran and unified parallel С / С. Coarfa, Y. Dotsenko, J. Mellor-Crummey et al. // Proceedings of the tenth ACM SIGPLAN symposium on Principles and practice of parallel programming. — 2005. — P. 36-47.

175. Сайт проекта TORQUE [Электронный ресурс]. Режим доступа: http://www.adapt ivecomputing.com/products/open-sourсе/torque/, свободный (дата обращения 28.01.2013).

176. Сайт проекта SLURM [Электронный ресурс]. Режим доступа: https: //computing. llnl. gov/linux/slurm/, свободный (дата обращения 28.01.2013).

177. Хорошевский, В. Г. Пространственно-распределённая мультикластерная вычислительная система: архитектура и программное обеспечение / В. Г. Хорошевский, М. Г. Курносов, С. Н. Мамойленко // Вестник ТГУ.— 2011. - Vol. 14, no. 1. - Р. 79-84.

178. Архитектура и программное обеспечение пространственно-распределённых вычислительных систем / В. Г. Хорошевский, М. Г. Курносов, С. Н. Мамойленко, А. Ю. Поляков // Вестник СибГУТИ. - 2010. - по. 2. - Р. 112-122.

179. Job Submission Description Language (JSDL) Specification [Электронный ресурс]. Режим доступа: http://www.ogf.org/documents/GFD.136.pdf, свободный (дата обращения 28.01.2013).

180. Ohsaki, Н. Performance Evaluation of Data Transfer Protocol GridFTP for Grid Computing / H. Ohsaki, M. Imase // Enformatika. - 2006. - Vol. 16. -P. 297-302.

181. The Globus Striped GridFTP Framework and Server / W. Allcock, J. Bresna-han, R.. Kettimuthu et al. // Proceedings of the 2005 ACM/IEEE conference on Supercomputing. — 2005. — P. 54-64.

'вб^Ог0

Рис. А.1. Пространственно-распределённая мультикластерная ВС ЦПВТ ФГОБУ ВПО "СибГУТИ" и Лаборатории ВС ИФП СО РАН

сг н

Я Й р О

н

(I)

ъ а р а

И

О

Я

чз о

о

н р

я

о н

Я

о

я я

0

1

43

р

о

я

о

ъ

о

и

со:

я

я

р

а

я

я а

о

*

ф

я

я

ф

>

Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.