Виртуализация многокомпонентной системной архитектуры предметно-ориентированной облачной вычислительной среды тема диссертации и автореферата по ВАК РФ 05.13.15, кандидат наук Федосин, Михаил Евгеньевич

  • Федосин, Михаил Евгеньевич
  • кандидат науккандидат наук
  • 2014, Пенза
  • Специальность ВАК РФ05.13.15
  • Количество страниц 194
Федосин, Михаил Евгеньевич. Виртуализация многокомпонентной системной архитектуры предметно-ориентированной облачной вычислительной среды: дис. кандидат наук: 05.13.15 - Вычислительные машины и системы. Пенза. 2014. 194 с.

Оглавление диссертации кандидат наук Федосин, Михаил Евгеньевич

Оглавление

Введение

Глава 1. Анализ современного состояния информационных технологий в области высокопроизводительных вычислений

1.1 Анализ современного состояния предметной области - доступа к технологиям высокопроизводительных вычислений

1.2 Анализ структуры вычислительного кластера

1.2.1 Преимущества кластерной архитектуры

1.2.2 Требования к кластерной архитектуре

1.3 Технология «грид»

1.4 Облачные вычисления

1.4.1 Особенности использования кластерных систем в промышленности и образовании

1.4.2 Свойства облачных вычислений

1.4.3 Сервисные модели

1.5 Концепция виртуальных предметно-ориентированных информационно-вычислительных веб-лабораторий

1.5.1 Возможности веб-лаборатории

1.5.2 Устройство веб-лаборатории

1.5.3 Особенности реализации программной части

1.6 Выводы по главе

Глава 2. Формализованное проектирование функциональной и виртуализированной системной архитектуры предметно-ориентированной облачной среды (ПООС)

2.1 Обоснование и выбор формализмов для поведенческого

моделирования и последующего проектирования ПООС на основе формализованных спецификаций

2.1.1 Формализованные спецификации ПООС на основе систем алгоритмических алгебр

2.1.2 Доопределение формализованных спецификаций ПООС на основе аппарата эволюционирующих алгебраических систем

2.1.3 Основные этапы проектирования ПООС

2.2 Методики автоматизированного абстрактного и структурного проектирования системной и функциональной архитектур ПООС на основе логико-алгебраических моделей

2.2.1 Методика проектирования функциональной архитектуры ПООС на абстрактном уровне

2.2.2 Методика проектирования системной виртуализированной архитектуры ПООС на прикладном уровне

2.3 Функциональная архитектура ПООС

2.3.1 Структура программно-аппаратного комплекса

2.3.2 Математическое описание функциональной архитектуры ПООС59

2.3.3 Группы и проекты

2.3.4 Логико-алгебраические модели функционирования ПООС

2.4 Структура грид-подсистемы

2.5 Архитектуры компонентов системы аккаунтинга

2.5.1 Архитектура сервера системы аккаунтинга

2.5.2 Архитектура клиента системы аккаунтинга

2.5.3. Архитектура сервера подсистемы распределения заданий

2.5.4 Архитектура сервера подсистемы управления заданиями

2.6 Основные результаты и выводы

Глава 3. Логико-алгебраические модели представления знаний о структурных, логических и причинно-следственных связях между компонентами и ресурсами виртуализированной предметно-ориентированной облачной среды

3.1 Эволюционирующие многоосновные алгебраические системы для

сценариев работы системы

3.2 Получение доступа к прикладному программному обеспечению в ПООС

3.2.1 Запуск приложения в ПООС

3.2.2 Загрузка задания на вычислительный ресурс

3.3 Мониторинг состояния задания

3.3.1 Мониторинг задания с помощью веб-браузера

3.3.2 Мониторинг задания из контейнера

3.3.3 Общие действия

3.4 Завершение выполнения задания

3.5 Завершение работы приложения

3.6 Верификация логико-алгебраических моделей

3.7 Основные результаты и выводы

Глава 4. Проектирование виртуализированной системной архитектуры предметно-ориентированной облачной среды на прикладном уровне и практические рекомендации по организации работы системы

4.1 Выявление и реализация параллелизма при работе алгоритмических модулей

4.1.1 Пример построения распределенной системы логического

управления (супервизора) для ПООС с параллельным выполнением операций

4.1.2 Анализ производительности работы системы с учетом параллельного и асинхронного выполнения компонентов

4.2 Компоненты и интерфейсы ПООС

4.2.1 Веб-ядро

4.2.2 Система аккаунтинга

4.2.3 Контейнер виртуальной машины

4.2.4 Подсистемы распределения и управления заданиями

4.3 Развертывание системы

4.3.1 Серверная часть

4.3.2 Клиент

4.3.3 Образ контейнера

4.3.4 Вычислительная часть

4.4 Реализация референсной архитектуры ПООС в области приборостроения

4.5 Установка прикладного программного обеспечения

4.5.1 Особенности хранения приложений в ПООС

4.5.2 Автоматическая установка приложения

4.5.3 Установка в ручном режиме

4.6 Подключение внешних вычислительных ресурсов

4.6.1 Установка на стороне ресурса

4.6.2 Установка на стороне ПООС

4.7 Разработка прикладного программного обеспечения средствами ПООС

4.7.1 Средства разработки, предоставляемые ПООС

4.7.2 Особенности работы системы аккаунтинга при разработке приложений

4.8 Основные результаты и выводы

Заключение

Список используемых сокращений

Список использованных источников

Приложение А. Описание принципов построения базы данных системы нтинга, характеристики ее состава и объема

ПООС

Приложение Д. Акты о внедрении результатов работы

187

Рекомендованный список диссертаций по специальности «Вычислительные машины и системы», 05.13.15 шифр ВАК

Введение диссертации (часть автореферата) на тему «Виртуализация многокомпонентной системной архитектуры предметно-ориентированной облачной вычислительной среды»

Введение

Актуальность темы исследований.

При проведении сложных расчетов, связанных с математическим моделированием, зачастую недостаточно обычных персональных компьютеров ввиду того, что они не обладают необходимой вычислительной мощностью. Для решения подобных задач были предложены подходы, позволяющие получить значительно большую производительность. Они основаны на использовании вычислительных комплексов, в первую очередь на базе кластерной архитектуры, за счет ее эффективности, масштабируемости и сниженной стоимости владения по сравнению с аналогами.

К особенностям таких вычислительных комплексов и соответствующего программного обеспечения относятся их высокая стоимость и большие затраты, связанные с их эксплуатацией. Кроме того, отсутствие для ряда отраслей промышленности открытых программных пакетов для моделирования вынуждает пользователей покупать их коммерческие аналоги. Поэтому большинство компаний малого и среднего бизнеса, а также вузы, не могут позволить себе приобретение промышленного вычислительного комплекса и вынуждены использовать недорогие, менее мощные решения, что приводит к увеличению времени счета, а при небольшом количестве задач - к неэффективному использованию оборудования ввиду его длительного простоя. С указанной проблемой тесно связана задача разработки и тестирования высокопроизводительных приложений. Отсутствие у пользователей необходимого оборудования и удобных инструментальных средств не позволяет проводить анализ программной модели и строить оптимизированные параллельные приложения.

Одной из основных тенденций развития информационных технологий в настоящее время является массовое внедрение технологий облачных вычислений и грид-систем. Благодаря развитию аппаратных вычислительных и сетевых технологий стало возможным объединение разнородных распределенных вычислительных ресурсов, хранилищ данных, соответствующего программного

обеспечения в единую вычислительную среду, доступ к которой предоставляется через Интернет.

Существенный вклад в исследование облачных вычислений внесли ученые R. Buyya, N. Antonopoulos, D. Avresky, S. Ahson, B. Sosinsky, K. Hwang, G. Fox, J. Dongarra, В.П. Потапов, В. В. Губарев. Изучением предметно-ориентированных облачных сред для прикладных научных исследований занимаются M. McLennan и G. Klimeck. Грид-системам и связанным с ними технологиям распределенных вычислений посвящены работы В.В. Воеводина, Вл.В. Воеводина, A. Tanenbaum, M. van Steen, N. Preve, A. Abbas, I. Foster и A. Mantri. Формализации параллельных вычислений в распределенных системах посвящены работы Н.П. Вашкевича, В.А. Горбатова, В.Е. Котова, В.П. Кулагина, В.В. Топоркова.

Существуют различные сервисные модели облачных вычислений; в данной работе рассматривается модель SaaS - программное обеспечение как услуга (англ. Software-as-a-Service) и модель PaaS - платформа как услуга (англ. Platform-as-a-Service).

В модели SaaS распространяются многие типы прикладного программного обеспечения, однако для класса высокопроизводительного программного обеспечения с графическим интерфейсом пользователя отсутствует возможность его распространения в данной модели в связи с трудностями адаптации таких приложений под Интернет. Одновременно с этим не существует облачной платформы, представляющей средства разработки и тестирования таких приложений.

Поэтому актуальной задачей является создание концепции, описывающей развертывание программно-аппаратных комплексов для обеспечения пользователей удаленным интерактивным доступом к высокопроизводительному программному обеспечению с графическим интерфейсом в модели SaaS, а также к платформе для разработки и тестирования такого программного обеспечения в модели PaaS.

Реализуемый функционал таких программно-аппаратных комплексов определяется набором установленных в них прикладных приложений и зависит от

предметной области. Совокупность всех предоставляемых комплексом специфичных для конкретной отрасли сервисов составляет предметно-ориентированную облачную среду (ПООС). Подобные среды можно рассматривать как подкласс распределенных вычислительных систем.

Целью работы является повышение эффективности проектирования и расширение функциональных и эксплуатационных возможностей предметно-ориентированных облачных сред за счет виртуализации их функциональной и системной архитектур.

Для достижения поставленной цели необходимо решить следующие основные задачи:

1) провести анализ современных принципов построения архитектур облачных сред и смежных с ними систем;

2) разработать методики проектирования функциональной и системной архитектур на абстрактном и прикладном уровнях;

3) разработать функциональную и системную архитектуры ПООС на основе логико-алгебраических моделей, учитывающих структурные, логические и темпоральные связи между компонентами;

4) реализовать систему аккаунтинга ресурсов, оснащенную супервизором, в задачи которой входит учет и контроль использования ресурсов, а также взаимодействие с внешними вычислительными ресурсами и обеспечение параллельной и асинхронной работы компонентов;

5) разработать инструментальные средства поддержки проектирования функциональной и системной архитектур многокомпонентных ПООС, обеспечивающие концептуальное и поведенческое моделирование при учете асинхронного и параллельного функционирования компонентов;

6) реализовать и протестировать прототип ПООС в одной из актуальных предметных областей.

Объектом исследования являются предметно-ориентированные облачные среды, предметом исследования - многокомпонентная системная и функциональная организация предметно-ориентированных облачных сред.

Методы исследования. Для решения поставленных задач были применены объектно-ориентрованный анализ и проектирование систем, методология системного моделирования, логико-алгебраические модели и методы для формализации системной и функциональной архитектур систем.

Научная новизна заключается в следующем:

1) предложены методики проектирования на абстрактном и прикладном уровнях системной и функциональной архитектур сложных многокомпонентных ПООС на основе декларативно-императивного подхода к представлению знаний о предметной ориентации и сценариях функционирования облачной среды, благодаря которым становится возможным построение масштабируемых, регулярных, модульных и реконфигурируемых структур ПООС;

2) предложена функциональная архитектура ПООС, основанная на анализе и интерпретации причинно-следственных межкомпонентных связей, отличительной особенностью которой является внедрение системы аккаунтинга ресурсов и супервизора с поддержкой технологии мультиресурсного запуска вычислительных заданий, что позволяет упростить реализацию и повысить оперативность взаимодействия компонентов системы;

3) предложены логико-алгебраические модели представления знаний о структурных, логических и темпоральных связях между компонентами и ресурсами ПООС, базирующиеся на эволюционирующих многоосновных алгебраических системах и алгебре модулей, которые позволяют в отличие от известных аналогов упростить построение формализованных поведенческих моделей системы, обеспечить их непосредственное использование в качестве формализованных технических заданий в процессе проектирования функциональной и системной архитектур ПООС, учесть на абстрактном и прикладном уровнях проектирования предметную ориентированность, асинхронную и параллельную работу компонентов и на этой основе повысить производительность ПООС;

4) предложена виртуализированная системная архитектура ПООС, учитывающая реализацию структурных, логических и темпоральных связей

между различными компонентами и ресурсами и отличающаяся от известных принципом отображения унифицированной абстрактной схемы декларативно-императивной поведенческой модели в архитектуру программно-аппаратных средств ПООС, что позволило сократить сроки проектирования и ускорить проведение анализа работы системы.

Практическая значимость работы заключается в следующем:

1) разработана универсальная система аккаунтинга ресурсов, снабженная супервизором и подсистемой управления заданиями, отличающаяся тем, что она позволяет единовременно контролировать программные и аппаратные ресурсы ПООС, осуществлять мониторинг и управление вычислительными заданиями, хранить историю запусков и формировать отчеты по проведенным исследованиям;

2) разработаны инструментальные средства поддержки проектирования функциональной и системной архитектур многокомпонентных ПООС, обеспечивающие поведенческое моделирование при учете асинхронного и параллельного функционирования компонентов;

3) реализована, протестирована и внедрена ПООС для решения задач в области приборостроения.

Область исследования. Содержание диссертации соответствует паспорту специальности 05.13.15 «Вычислительные машины, комплексы и компьютерные сети» (Технические науки) по пунктам 1, 2 и 4 областей исследований.

На защиту выносятся:

1. Системная и функциональная архитектуры ПООС.

2. Методики абстрактного и структурного синтеза функциональной и системной архитектур ПООС.

3. Логико-алгебраические модели представления знаний о структурных и логических связях между компонентами и ресурсами ПООС.

4. Реализация референсной архитектуры ПООС и инструментальных средств поддержки проектирования функциональной и системной архитектур многокомпонентных ПООС.

Реализация результатов работы. Теоретические и практические результаты работы использованы при выполнении фундаментальной КИР «Развитие теории организации взаимодействия параллельных процессов в распределенных системах обработки данных» (2012-2013, № гос. per. 01201257166) на кафедре «Вычислительная техника» Пензенского государственного университета; внедрены на промышленном предприятии ЗАО НПК «Электровыпрямитель» (реализована предметно-ориентированная облачная среда в области приборостроения, обеспечивающая удаленный доступ к прикладному программному обеспечению для математического моделирования, а также к средствам разработки и тестирования), а также используются в учебном процессе Пензенского государственного университета и Мордовского государственного университета им. Н.П. Огарева, что подтверждается соответствующими актами о внедрении.

Обоснованность и достоверность результатов определяются корректным использованием строгих и апробированных методов исследования и подтверждаются практическим применением полученных результатов при разработке промышленной облачной среды и инструментальных программных средств, что подтверждено актами о внедрении результатов работы, наличием патента и свидетельств о государственной регистрации программ, а также апробацией работы на международных конференциях.

Апробация работы. Основные положения диссертации докладывались и обсуждались в рамках различных международных научно-технических конференций: XVIII-th International Open Science Conference (Lorman, MS, USA, 2013), IX ежегодная международная научно-практическая конференция «Перспективы развития информационных технологий (г. Новосибирск, 2012), III ежегодная международная конференция «Облачные вычисления: образование, исследования, разработки» (Москва, 2012), Международная заочная научно-практическая конференция «Наука и образование в жизни современного общества» (г. Тамбов, 2013), Восемнадцатая международная открытая научная конференция "Современные проблемы информатизации" - "Modern Problems of

Informatization (г. Воронеж, 2013), Международная научная конференция «Современные наукоемкие технологии» (Aqaba, Jordan, 2013), III Международная научная конференция «Проблемы управления, обработки и передачи информации» (г. Саратов, 2013), XIV Международная научно-техническая конференция «Проблемы техники и технологий телекоммуникаций» ПТиТТ-2013 (г. Самара, 2013).

Публикации. По теме диссертационной работы опубликовано 13 печатных работ, из них 5 - в журналах, рекомендованных ВАК РФ. Получены 3 свидетельства об официальной регистрации программ для ЭВМ. Получен патент на полезную модель аппаратно-вычислительного комплекса.

Структура и объем диссертации. Диссертация состоит из введения, четырех глав, заключения и библиографического списка из 132 наименований и пяти приложений. Работа содержит 166 страниц основного текста (включая 49 рисунков), библиографический список на 13 страницах и приложения на 15 страницах.

Глава 1. Анализ современного состояния информационных технологий в области высокопроизводительных вычислений

Глава посвящена рассмотрению способов решений проблем, возникающих перед учеными и исследователями при проведении сложных вычислений, связанных с математическим моделированием. Для этого в главе представлено актуальное состояние сектора информационных технологий в области высокопроизводительных вычислений, где описываются различные технологии, направленные на упрощение проведения исследовательских проектов:

-грид, обеспечивающий унифицированный доступ к вычислительному оборудованию, как к единой платформе;

- облачные вычисления, рассматриваемые в качестве моделей предоставления услуг, в которых пользователь получает доступ к различным ресурсам в виде Интернет-сервиса;

- веб-лаборатории или хабы (англ. hub), базирующиеся на технологии web

2.0 и направленные на организацию научных сообществ с предоставлением пользователям развитых средств коммуникации и взаимодействия.

1.1 Анализ современного состояния предметной области - доступа к

технологиям высокопроизводительных вычислений

Для решения актуальных задач, требующих проведения сложных расчетов, связанных с математическим моделированием, зачастую недостаточно обычных персональных компьютеров ввиду того, что они не обладают необходимой вычислительной мощностью.

Список таких задач (англ. Grand Challenges) [1] был представлен, например, правительством США и, в частности, содержит такие разделы, как:

- механика сплошных сред;

- прогнозирование погоды, климата и изменений в атмосфере;

- приборостроение;

- генетика;

- астрономия и др.

Подобные задачи, в которых необходимо использование высокопроизводительных вычислений, невозможно решать эффективно и зачастую невозможно решать вообще, без использования сверхмощных вычислительных ресурсов, также называемых «суперкомпьютерами», благодаря которым становится реальным получение результатов расчетов до нескольких порядков быстрее. Тем не менее, к основным особенностям использования суперкомпьютерных систем относятся их высокая стоимость и большие затраты, связанные с их эксплуатацией.

Другой не менее важной проблемой становится нехватка прикладного программного обеспечения. Кроме того, отсутствие для ряда отраслей промышленности открытых программных пакетов {open source [2]) для моделирования вынуждает пользователей покупать их коммерческие аналоги. В некоторых случаях стоимость программных решений и их дальнейшая поддержка сопоставима со стоимостью покупки такой системы, а иногда и значительно превышает ее. Ввиду этого большинство компаний малого и среднего бизнеса, а также вузы, не могут позволить себе приобретение промышленного суперкомпьютера и необходимого программного обеспечения.

В связи с ориентацией на решение данных проблем, а также в связи с активным развитием технологии виртуализации и каналов связи, основной задачей последних лет стала попытка упрощения доступа к вычислительным кластерам и прикладному программному обеспечению. Это стало возможным в связи с последовательным развитием технологий «грид» (grid) [3] и облачных вычислений (cloud computing) [4].

Помимо этого наблюдается потребность в объединении ученых, исследователей и учащихся в социальные научные сети [5, 6, 7], где они могут найти необходимые им публикации, выявить актуальные тенденции в данной тематике, узнать о проведении тематических конференций и установить контакт друг с другом. По этой причине была разработана концепция виртуальных информационно-вычислительных веб-лабораторий или «хабов» [8], позволяющая

организовывать предметно-ориентированные научные сообщества с предоставлением пользователям развитых средств коммуникации и взаимодействия, а также доступом к прикладным моделям данных.

Таким образом, для достижения поставленной цели работы были определены функциональные требования к ПООС, которые должны обеспечивать пользователей удобным повсеместным доступом к высокопроизводительному программному обеспечению с графическим интерфейсом, предоставлять средства разработки и тестирования ресурсоемких приложений и обеспечивать создание сообществ для проведения совместных исследований в рамках единой платформы.

Учитывая вышесказанное, следует утверждать, что создаваемая ПООС должна предоставлять пользователям облачные сервисы согласно известным моделям БааЭ и Раа8, использовать адаптированные под облачную среду грид-технологии на внутреннем уровне и обеспечивать доступ к прикладным моделям данных и организации научных сообществ в рамках концепции веб-лабораторий.

1.2 Анализ структуры вычислительного кластера

Наибольшее распространение среди суперкомпьютерных архитектур для решения ресурсоемких задач [9] получили вычислительные кластеры [10]. Это стало возможным благодаря их экономической эффективности при решении широкого класса вычислительных задач. В списке самых мощных вычислительных систем Топ-500 из суперкомпьютеров, представленных в 2013 году, 85% были построены по кластерной технологии [11].

Вычислительный кластер представляет собой набор взаимосвязанных автономных компьютеров (вычислительных узлов), которые работают совместно, как единый интегрированный вычислительный ресурс (рисунок 1). Процессор вычислительного узла кластера работает только со своим локальным адресным пространством памяти, а доступ к удаленной памяти других узлов обеспечивается через механизм передачи сообщений. Такая организация вычислений исключает возникновение конфликтов при обращении к памяти и возникновение проблемы

когерентности кэш-памяти. Это обеспечивает высокую масштабируемость системы и позволяет наращивать ее производительность простым добавлением узлов [12].

Вычислительная инфраструктура

Инженерная инфраструктура

Рисунок 1 - Общая схема организации кластерных вычислительных систем с

распределенной памятью

1.2.1 Преимущества кластерной архитектуры

Среди преимуществ кластерной архитектуры можно отметить [13]:

- эффективность: компоненты общего назначения, на базе которых создаются кластерные системы, а так же специальные мероприятия по настройке системного программного обеспечения позволяют добиться высокой эффективности кластерных вычислительных систем при решении широкого круга вычислительных задач;

- масштабируемость: вычислительная система, построенная по кластерной архитектуре, состоит из одинаковых независимых вычислительных модулей, что позволяет строить системы самого широкого круга вычислительных

возможностей, от небольших кластеров рабочих групп до вычислительных систем масштаба группы предприятий;

- стоимость владения: использование в основе кластера вычислительных компонентов общего назначения и распространенных свободных программных средств снижает совокупную стоимость владения кластерной вычислительной системой.

1.2.2 Требования к кластерной архитектуре

В зависимости от типа вычислительного кластера к его архитектуре могут накладываться специальные функциональные и не функциональные требования. Так, параллельные программы, на эффективное выполнение которых нацелены высокопроизводительные системы, характеризуются наличием частых обменов данными, эффективность выполнения которых и определяет общую эффективность выполнения программы. В связи с этим на компоненты и архитектуру высокопроизводительной кластерной системы накладываются специальные требования. Высокопроизводительная кластерная система с распределенной памятью, предназначенная для решения параллельных задач, должна состоять из однородных вычислительных узлов, объединенных специализированной сетью и иметь централизованную точку доступа, администрирования и управления. При этом характеристики вычислительных узлов и сети должны быть согласованны.

Базовая схема высокопроизводительной кластерной вычислительной системы представлена на рисунке 2.

Общее требование однородности узлов вычислительного поля можно рассмотреть как обобщение требований к подсистемам, из которых состоит кластерная вычислительная система: требование к однородности аппаратных компонентов вычислительных узлов (аппаратная однородность), требование к однородности настроек системного программного окружения вычислительных узлов (программная однородность), требование к инженерной инфраструктуре,

обеспечивающей функционирование вычислительных узлов (однородность среды функционирования) [14].

Рисунок 2 - Общая схема высокопроизводительной кластерной вычислительной

системы

Аппаратная однородность. Желательно, чтобы вычислительные узлы кластера в рамках одного вычислительного поля были построены на компонентах одного типа, одного производителя и имели максимально близкие по абсолютным значениям характеристики.

Программная однородность. Необходимо обеспечить одинаковые настройки системного окружения (ядро, административные и инфраструктурные службы операционной системы) на всех вычислительных узлах. Важно отметить, что в процессе эксплуатации может появляться так называемый «шум», обусловленный появлением в процессе эксплуатации незавершенных процессов, утечек памяти и так далее. Система мониторинга средств управления вычислительными ресурсами суперкомпьютерного центра должна иметь средства для выявления и последующего устранения такого «шума». Для обеспечения программной однородности системное программное обеспечения среднего уровня кластера, входящее в состав средств управления вычислительными ресурсами суперкомпьютерного центра, должно поддерживать возможность инсталляции вычислительных узлов с использованием единого загрузочного образа. Такие свободные пакеты кластерного ПО, как OSCAR [15, 16], Rocks [17, 18], коммерческий пакет HP CMU [19] содержат компоненты, которые позволяют

создавать, хранить загрузочные образы вычислительных узлов кластера и с их использованием проводить инсталляцию и выполнять процедуры восстановления в случаях возможных сбоев. Для инсталляции узлов кластера может быть использован метод унификации вычислительных ресурсов bare-metal, реализованный в пакете OpenStack [20].

Однородность среды функционирования. Инженерная инфраструктура должна обеспечивать одинаковые климатические условия для функционирования всех узлов вычислительного поля. Однородность среды функционирования обеспечивается инженерной инфраструктурой, которая будет подробно описана в следующих разделах.

Нарушение любого из этих требований даже в рамках одного узла вычислительного поля ведет к недетерминированному поведению параллельной программы и может являться причиной ее неэффективного выполнения.

Вычислительные узлы высокопроизводительного кластера объединяются сетями. Обмен данными между частями программы в процессе ее выполнения обеспечивает вычислительная сеть. Функционирование сетевых системных служб операционных систем вычислительных узлов обеспечивает управляющая сеть, а сеть подсистемы параллельного ввода-вывода обеспечивает подключение узлов к хранилищу данных. Такая организация сетевой инфраструктуры вычислительного кластера позволяет исключить взаимное влияние потоков данных и обеспечить однородность характеристик межузловых коммуникаций. К каждой из сетевых инфраструктур могут предъявляться свои требования к характеристикам. Так, например, вычислительная сеть высокопроизводительного кластера должна обеспечивать высокую пропускную способность, низкую латентность, низкую загрузку центрального процессора вычислительного узла.

Наибольшее распространение получили кластерные системы следующих типов: кластеры высокой готовности, высокопроизводительные кластеры, кластеры массовой обработки запросов [21].

Тем не менее, несмотря на все преимущества, к особенностям использования кластерных решений относятся их высокая стоимость, а также

большие затраты, связанные с их эксплуатацией: энергопотребление, коммуникации, утилизация и так далее.

Ввиду этого большинство компаний малого и среднего бизнеса, а также вузы, не могут позволить себе приобретение промышленного кластера и вынуждены использовать недорогие, менее мощные решения, что приводит к увеличению времени счета, а при небольшом количестве задач - к неэффективному использованию оборудования ввиду его длительного простоя.

Для упрощения доступа к кластерам была разработана концепция «грид». Концепция подразумевает объединение множества кластерных систем нескольких вычислительных центров в единую инфраструктуру. Такие грид-системы используются совместно в рамках консорциумов организаций и позволяют перераспределять вычислительные задачи, тем самым значительно повышая эффективность использования ресурсов.

Похожие диссертационные работы по специальности «Вычислительные машины и системы», 05.13.15 шифр ВАК

Список литературы диссертационного исследования кандидат наук Федосин, Михаил Евгеньевич, 2014 год

Список использованных источников

1. A Report of The National Science Foundation Advisory Committee for Cyberinfrastructure Task Force on Grand Challenges, Final Report, March 2011 // nsf.gov [Электронный ресурс]. URL:

http://www.nsf.gov/cise/aci/taskforces/TaskForceReport_GrandChallenges.pdf (дата обращения: 09.04.2014).

2. Weber S. The success of open source. - Cambridge, MA: Harvard University Press, 2004.-P. 38-44.

3. Foster I. et al. The physiology of the grid //Grid computing: making the global infrastructure a reality. - 2003. - P. 217-249.

4. Armbrust M. et al. A view of cloud computing //Communications of the ACM. -2010. - Vol. 53. - №. 4. - P. 50-58.

5. Официальный сайт Academia // academia.edu [Электронный ресурс]. URL: http://www.academia.edu/ (дата обращения: 09.04.2014).

6. Официальный сайт MyExperiment // myexperiment.org [Электронный ресурс]. URL: http://www.myexperiment.org/ (дата обращения: 09.04.2014).

7. Официальный сайт ResearchGate // researchgate.net [Электронный ресурс]. URL: http://www.researchgate.net/ (дата обращения: 09.04.2014).

8. Klimeck G. et al. nanoHUB. org: advancing education and research in nanotechnology //Computing in Science & Engineering. - 2008. - Vol. 10. - №. 5.-P. 17-23.

9. Hope L., Lam E., Campus C. A Review of Apps of Cluster Computing //Melbourne, Australia: School of Computer Science and Software Engineering, Monash Unversity. - 1999.

10. Buyya R. et al. High Performance Cluster Computing: Architectures and Systems (Volume 1) //Prentice Hall, Upper SaddleRiver, NJ, USA. - 1999. -Vol. 1.-849 p.

11. Официальный сайт Top500 // top500.org [Электронный ресурс]. URL: http://www.top500.org/statistics/list/ (дата обращения: 09.04.2014).

12. Chen M. H., Li Т. L. Construction of a high-performance computing cluster: A curriculum for engineering and science students //Computer Applications in Engineering Education. - 2011. - Vol. 19. - №. 4. - P. 678-684.

13. Yeo C. S. et al. Cluster Computing: High-Performance, High-Availability, and High-Throughput Processing on a Network of Computers //Handbook of nature-inspired and innovative computing. - Springer US, 2006. - P. 521-551.

14. Bader D., Pennington R. Cluster Computing: Apps. // Georgia Tech College of Computing. [Электронный ресурс]. URL:

http://www.cc.gatech.edu/~bader/papers/ijhpca.html (дата обращения: 09.04.2014).

15. Leangsuksun С. et al. Availability prediction and modeling of high mobility OSCAR cluster //Cluster Computing, 2003. Proceedings 2003 IEEE International Conference. - IEEE, 2003. - P. 380-386.

16. Официальный сайт OSCAR // oscar.openclustergroup.org [Электронный ресурс]. URL: http://oscar.openclustergroup.org/ (дата обращения: 09.04.2014).

17. Sacerdoti F. D., Chandra S., Bhatia K. Grid systems deployment & management using Rocks //Cluster Computing, 2004 IEEE International Conference. - IEEE, 2004.-P. 337-345.

18. Официальный сайт Rocks // rocksclusters.org [Электронный ресурс]. URL: http://www.rocksclusters.org/ (дата обращения: 09.04.2014).

19. Официальный сайт HP Cluster Management Utility // h20311.www2.hp.com [Электронный ресурс]. URL: http://h20311.www2.hp.com/HPC/cache/412128-0-0-0-121.html (дата обращения: 09.04.2014).

20. Xie J. et al. Bare Metal Provisioning to OpenStack Using xCAT //Journal of Computers. - 2013. - Vol. 8. - №. 7. - P. 1691 -1695.

21. Bakery M., Buyyaz R. Cluster computing at a glance //High Performance Cluster Computing: Architectures and System. Upper Saddle River, NJ: Prentice-Hall. - 1999. - P. 3-47.

22. Foster I. What is the Grid? A Three Point Checklist // GRID today. - 2002. -№1(6).-P. 22-25.

23. Marowka A. The GRID: Blueprint for a new computing infrastructure //Scalable Computing: Practice and Experience. - 2001. - Vol. 3. - №. 3.

24. Allcock B. et al. Data management and transfer in high-performance computational grid environments //Parallel Computing. - 2002. - Vol. 28. - №. 5.-P. 749-771.

25. Allen B. et al. An International Virtual-Data Grid Laboratory for Data Intensive Science.-2001.-34 p.

26. De Roure D., Jennings N. R., Shadbolt N. The semantic grid: A future e-science infrastructure //Grid Computing-Making the Global Infrastructure a Reality. -2003.-P. 437-470.

27. Zhuge H. Semantic grid: Scientific issues, infrastructure, and methodology //Communications of the ACM. - 2005. - Vol. 48. - №. 4. - P. 117-119.

28. De Roure D., Jennings N. R., Shadbolt N. R. The semantic grid: past, present, and future //Proceedings of the IEEE. - 2005. - Vol. 93. - №. 3. - P. 669-681.

29. Официальный сайт ONTOgrid // ontogrid.net [Электронный ресурс]. URL: http://www.ontogrid.net/ (дата обращения: 09.04.2014).

30. Eidson Т. М. Additional Security Considerations for Grid Management // ntrs.nasa.gov [Электронный ресурс]. URL:

http://ntrs.nasa.gov/archive/nasa/casi.ntrs.nasa.gov/20030106573 .pdf (дата обращения: 09.04.2014).

31. Foster I. et al. The physiology of the grid //Grid computing: making the global infrastructure a reality. - 2003. - P. 217-249.

32. Воеводин В. В., Воеводин Вл. В. Параллельные вычисления. - СПб.: БХВ-Петербург, 2002. - 608 с.

33. MPI: A message-passing interface standard // International Journal of Supercomputer App. - 1994. - Vol. 3/4, №. 8. - P. 165^16.

34. Chapman В., Jost G., Van Der Pas R. Using OpenMP: portable shared memory parallel programming. - The MIT Press, 2008. - 384 p.

35. Lin J. et al. What is Cloud Computing? //IT as a Service. - 2009. - Vol. 11. -№. 2.-P. 10-13.

36. Mell P., Grance T. The NIST definition of cloud computing //National Institute of Standards and Technology. [Электронный ресурс]. URL: http://csrc.nist.gov/publications/nistpubs/800-145/SP800-145 .pdf (дата обращения: 09.04.2014).

37. Catteddu D. Cloud Computing: benefits, risks and recommendations for information security. - Springer Berlin Heidelberg, 2010. - P. 17.

38. Gorelik E. Cloud Computing Models. // web.mit.edu [Электронный ресурс]. URL: http://web.mit.edu/smadnick/www/wp/2013-01.pdf (дата обращения: 09.04.2014).

39. Федосин М.Е. Разработка программно-аппаратного комплекса для предоставления доступа к высокопроизводительному программному обеспечению в концепции облачных вычислений // Международный журнал прикладных и фундаментальных исследований. - 2013. - № 6. — С. 110-111.

40. McLennan M., Kennell R. HUBzero: a platform for dissemination and collaboration in computational science and engineering //Computing in Science & Engineering. - 2010. - Vol. 12. - №. 2. - P. 48-53.

41.Fedosin M.E., Samovarov O.I. Creating a virtual information-computational laboratory in computational fluid dynamics // Modern Informatization Problems In The Technological And Telecommunication Systems Analysis And Synthesis (Proceedings of the XVII-th International Open Science Conference) Lorman, MS, USA, 2013. - P. 398-400.

42. Зинкин С.А., Федосин M.E., Антонов В.В. Создание виртуального информационно-вычислительного Веб-центра в области приборостроения // Наука и образование в жизни современного общества: сборник научных трудов по материалам Международной научно-практической конференции 29 ноября 2013 г.: в 18 частях. Часть 15, Тамбов, 2013. - С. 44-45.

43. Университетский кластер: интеграция образования, науки и индустрии / С.С. Гайсарян, О.И. Самоваров, А.И. Аветисян, В.П. Иванников // Открытые системы. - 2010. - № 5. - С. 46-49.

44. Федосин М.Е. Создание виртуальных информационно-вычислительных лабораторий на основе технологической платформы UniHUB // Системы управления и информационные технологии. - 2012. - №3.1(49). - С. 175178.

45. Федосин М.Е., Рыжов А.Г. Организация доступа к прикладному программному обеспечению в концепции виртуальных информационно-вычислительных лабораторий // Современные проблемы науки и образования. - 2013. - № 1. [Электронный ресурс]. URL: www.science-education.ru/107-8293 (дата обращения: 09.04.2014).

46. Whitehead Jr Е. J. World Wide Web distributed authoring and versioning (WebDAV): an introduction //StandardView. - 1997. - Vol. 5. - №. 1. - P. 3-8.

47. Федосин М.Е. Создание виртуальных информационно-вычислительных лабораторий на основе технологической платформы UniHUB // Информационные технологии моделирования и управления. — 2012. -№4(76).-С. 322-330.

48. Официальный сайт Debian Project // debian.org [Электронный ресурс]. URL: http://www.debian.org/ (дата обращения: 09.04.2014).

49. Официальный сайт The Trac Project // trac.edgewall.org [Электронный ресурс]. URL: http://trac.edgewall.org/ (дата обращения: 09.04.2014).

50. Leuf В., Cunningham W. The Wiki Way: Quick Collaboration on the Web. - 1st ed. Addison Wesley, 2001. - 464 p.

51. Rochkind M. J. The source code control system // IEEE Transactions on Software Engineering. - 1975. - №. 4. - P. 364-370.

52. Официальный сайт Subversion // subversion.tigris.org [Электронный ресурс]. URL: http://subversion.tigris.org/ (дата обращения: 09.04.2014).

53. Официальный сайт GIT // git-scm.com [Электронный ресурс]. URL: http://git-scm.com/ (дата обращения: 09.04.2014).

54. Официальный сайт Rappture // rappture.org URL: http://rappture.org/ (дата обращения: 09.04.2014).

55. Федосин М.Е., Самоваров О.И. Организация виртуальных информационно-вычислительных лабораторий и их использование // IX

ежегодная международная научно-практическая конференция «Перспективы развития информационных технологий». - Новосибирск, 2012.-С. 66-71.

56. Плесневич, Г. С. Логические модели: в 3-х кн. / Г. С. Плесневич // Искусственный интеллект. Кн. 2. Модели и методы: справочник / под ред. Д. А. Поспелова. - М.: Радио и связь, 1990. - С. 14-28.

57. Levesque, Н. The logic of knowledgebases / H. Levesque, G. Lakemeyer. - The MIT Press, 2001.-300 p.

58. Глушков B.M., Цейтлин Г.Е., Ющенко Е.Л. Алгебра. Языки. Программирование. - Киев: Наукова думка, 1978. - 319 с.

59. Лекции по дискретной математике / Капитонова Ю.В., Кривой С.Л., Летичевский А.А., Луцкий Г.М. - СПб.: БХВ-Петербург, 2004. - 624 с.

60. Капитонова Ю.В., Летичевский А.А. Математическая теория проектирования вычислительных систем. - М.: Наука, 1988. - 296 с.

61. Глушков В.М., Цейтлин Г.Е., Ющенко Е.Л. Методы символьной мультиобработки. - Киев, Наукова думка, 1980. - 252 с.

62. Многоуровневое структурное проектирование программ: Теоретические основы, инструментарий / Ющенко Е. Л., Цейтлин Г. Е., Грицай В. П., Терзян Т. К. - М.: Финансы и статистика, 1989. - 208 с.

63. Gurevich Y. Evolving algebras: An attempt to discover semantics //Current Trends in Theoretical Computer Science. - 1993. - P. 266-292.

64. Gurevich Y. Evolving Algebras //IFIP Congress (1). - 1994. - P. 423-427.

65. Gurevich Y. Evolving algebras 1993: Lipari guide //Specification and validation methods. - 1995. - P. 9-36.

66.Gurevich Y., Soparkar N., Wallace C. Formalizing database recovery //Journal of Universal Computer Science. - 1997. - Vol. 3. - №. 4. - P. 320-340.

67. Fordham В., Abiteboul S., Yesha Y. Evolving databases: An application to electronic commerce //Database Engineering and Applications Symposium, 1997. IDEAS'97. Proceedings., International. - IEEE, 1997. - P. 191-200.

68. Using Abstract State Machines at Microsoft: A Case Study / Barnett M., Borger E., Gurevich Y., Schulte W., Veanes M. // Abstract State Machines: Theory and Apps. - Springer LNCS, 2000. - P. 367-380.

69. Зинкин C.A. Сети абстрактных машин высших порядков в проектировании систем и сетей хранения и обработки данных (базовый формализм и его расширения) // Известия высших учебных заведений. Поволжский регион. Технические науки. - 2007. - № 3. - С. 13-22.

70. Зинкин С.А. Сети абстрактных машин высших порядков в проектировании систем и сетей хранения и обработки данных (механизмы интерпретации и варианты использования) // Известия высших учебных заведений. Поволжский регион. Технические науки. - 2007. - № 4. - С. 37-50.

71. Зинкин С.А. Элементы новой объектно-ориентированной технологии для моделирования и реализации систем и сетей хранения и обработки данных // Информационные технологии. - 2008. - № 10. - С. 20-27.

72. Механов В.Б., Зинкин С.А., Карамышева Н.С. Формализация управления вычислительными процессами в распределенных системах хранения и обработки данных и знаний // Информационные технологии. - 2013. - № 1. -С. 51-58.

73.Ершов Ю.Л., Палютин Е.А. Математическая логика. - М.: Наука, 1979. -320 с.

74. Колмогоров А.Н., Драгалин А.Г. Математическая логика. - М.: Едиториал УРСС, 2005.-240 с.

75.Плоткин Б.И. Универсальная алгебра, алгебраическая логика и базы данных. - М.: Наука. 1991. - 448 с.

76. Непомнящий В.А., Рякин О.М. Прикладные методы верификации программ / Под ред. А.П. Ершова. - М.: Радио и связь, 1988. - 256 с.

77. Puder A. Extending desktop apps to the web // Proceedings of the 2004 international symposium on Information and communication technologies. -Trinity College Dublin, 2004. - P. 8-13.

78. Sean Walton Linux Socket Programming. - 1st ed., Sams, 2001. - 531 p.

79. Venkatachalam G. The OpenSSH protocol under the hood //Linux J. - 2007. -N. 156.

80. Zheng Y., Nicol D. M. A virtual time system for openvz-based network emulations //Principles of Advanced and Distributed Simulation (PADS), 2011 IEEE Workshop on. - IEEE, 2011. - P. 1-10.

81. Che J. et al. A synthetical performance evaluation of openvz, xen and kvm // Services Computing Conference (APSCC), 2010 IEEE Asia-Pacific. - IEEE, 2010.-P. 587-594.

82. Keahey K. et al. Virtual workspaces in the grid //Euro-Par 2005 Parallel Processing. - Springer Berlin Heidelberg, 2005. - P. 421-431.

83. Федосин M.E. Технология поддержки учета ресурсов в виртуальных информационно-вычислительных лабораториях // Фундаментальные исследования. - 2013. - № 1 (часть 2). - Р. 433-438.

84. Elmroth Е. et al. Accounting and billing for federated cloud infrastructures //Grid and Cooperative Computing, 2009. "GCC'09". Eighth International Conference on. - IEEE, 2009. - P. 268-275.

85. Федосин M.E. Введение системы учета ресурсов в концепцию виртуальных информационно-вычислительных лабораторий // IX ежегодная международная научно-практическая конференция «Перспективы развития информационных технологий». - Новосибирск, 2012.-С. 64-66.

86. Волчихин В.И., Зинкин С.А. Логико-алгебраические модели и методы в проектировании функциональной архитектуры распределенных систем хранения и обработки данных // Известия ВУЗов. Поволжский регион. Технические науки. 2012. -№ 2. - С.3-16.

87. Зинкин С.А., Федосин М.Е., Федосин А.С. Разработка программной и аппаратной архитектуры веб-центра с использованием логико-алгебраических моделей представления знаний // Научно-технических вестник Поволжья, № 6, 2013. - С. 289-293.

88. Patoli Z. et al. How to build an open source render farm based on desktop grid computing // Wireless Networks, Information Processing and Systems. -Springer. Berlin, Heidelberg, 2009. - P. 268-278.

89. Fedosin M.E. Supporting tools for research projects in virtual information-computational laboratories // Modem Informatization Problems In The Technological And Telecommunication Systems Analysis And Synthesis (Proceedings of the XVII-th International Open Science Conference) Lorman, MS, USA, 2013. - P. 367-371.

90. Foster I. et al. Virtual clusters for grid communities //Cluster Computing and the Grid, 2006. "CCGRID 06". Sixth IEEE International Symposium on. - IEEE, 2006.-Vol. 1.-P. 513-520.

91. Thigpen W. et al. Distributed Accounting on the Grid // In Proceedings of the 6th Joint Conference on Information Sciences. - 2002. - P. 1147-1150.

92. Abawajy J. H. Grid accounting service infrastructure for service-oriented grid computing systems //Scientific Apps of Grid Computing. - Springer Berlin Heidelberg, 2005. - P. 168-175.

93. Czajkowski K. et al. A resource management architecture for metacomputing systems //Job Scheduling Strategies for Parallel Processing. - Springer. Berlin, Heidelberg, 1998.-P. 62-82.

94. Савкина A.B., Федосин C.A. Поддержка мультиресурсного запуска вычислительных заданий в web-центрах // Проблемы управления, обработки и передачи информации (АТМ-2013): Сб. тр. III Междунар науч. конф.: в 2-х т., - Саратов, 2013. - С. 173-175.

95. Bennett S., McRobb S., Farmer R. Object-oriented systems analysis and design using UML. - Berkshire, UK : McGraw-Hill, 2006. - 516 p.

96. Официальный сайт OpenPBS // mcs.anl.gov [Электронный ресурс]. URL: http://www.mcs.anl.gov/research/projects/openpbs/ (дата обращения: 09.04.2014).

97. Официальный сайт Slurm // computing.llnl.gov [Электронный ресурс]. URL: https://computing.llnl.gov/linux/slurm/ (дата обращения: 09.04.2014).

98. Официальный сайт LSF // www-03.ibm.com [Электронный ресурс]. URL:http://www-

03.ibm.com/systems/technicalcomputing/platformcomputing/products/lsf/ (дата обращения: 09.04.2014).

99. Официальный сайт HTCondor // research.cs.wisc.edu/htcondor [Электронный ресурс]. URL: http://research.cs.wisc.edu/htcondor/ (дата обращения: 09.04.2014).

100. Официальный сайт LoadLeveler // www-03.ibm.com [Электронный ресурс]. URL: http://www-03.ibm.com/systems/software/loadleveler/ (дата обращения: 09.04.2014).

101. Механов В.Б., Зинкин С.А., Карамышева Н.С. Абстрактное и структурное проектирование сетей хранения данных: от сценариев к логико-алгебраическим спецификациям // Информатизация образования и науки. -2013.-№2(18).-С. 68-84.

102. Murata Т. Petri nets: Properties, analysis and apps //Proceedings of the IEEE. -1989. - Vol. 77. - №. 4. - P. 541-580.

103. Reisig W. Petri nets: an introduction. - Springer-Verlag. New York, Inc., 1985.

104. Зинкин C.A., Федосин M.E., Савкина A.B. Описание запуска вычислительных заданий в Веб-центрах на основе логико-алгебраических спецификаций // Научно-технический вестник Поволжья. - 2013. - № 4. -С. 154-159.

105. Зинкин С.А. Организация управления сетями хранения и обработки данных на основе непосредственной интерпретации логико-алгебраических спецификаций // Известия высших учебных заведений. Поволжский регион. Технические науки. - 2012. - № 4. - С. 3-16.

106. Elmroth Е. et al. Accounting and billing for federated cloud infrastructures //Grid and Cooperative Computing, 2009. "GCC'09". Eighth International Conference on. - IEEE, - 2009. - P. 268-275.

107. Larman С. Applying UML and Patterns: An Introduction to Object-Oriented Analysis and Design and Iterative Development. - 3rd ed. Prentice Hall, 2004. -736 p.

108. Rumbaugh J., Jacobson I., Booch G. The Unified Modeling Language Reference Manual. - 2nd ed. Addison-Wesley Professional, 2004. - 721 p.

109. Abawajy J. H. Grid accounting service infrastructure for service-oriented grid computing systems // Scientific Apps of Grid Computing. - Springer. Berlin, Heidelberg, 2005.-P. 168-175.

110. Lee J., Ware B. Open Source Development with LAMP: Using Linux, Apache, MySQL, Perl, and PHP. Addison-Wesley Professional, 2002. - 496 p.

111. Gerner J., Owens M., Naramore E. Professional LAMP: Linux, Apache, MySQL and PHP5 Web Development. Wrox, 2005. - 379 p.

112. Barrie M. North Joomla! 1.6: A User's Guide: Building a Successful Joomla! Powered Website. - 3rd ed., Prentice Hall, 2011. - 416 p.

113. Exim: The Mail Transfer Agent // books.ignix.ru [Электронный ресурс]. URL:

http://www.books.ignix.ru/MAIL/EXIM/Exim_The_Mail_Transfer_Agent%280 %27Reilly%29_EN.pdf (дата обращения: 09.04.2014).

114. Ломакина Л.С. Теория и практика структурного тестирования программных систем // Л.С. Ломакина, А.С. Базин, А.Н. Вигура, А.В. Киселев. - Воронеж: Научная книга, 2013. - 220 с.

115. Курганский В.И. Алгебраические преобразования программ и порождаемых ими отношений // Системы управления и информационные технологии. - Воронеж, - 2006. - № 3.1(25). - С. 139-144.

116. Логика и компьютер. Моделирование рассуждений и проверка правильности программ / Н.А. Алешина, A.M. Анисов, П.И. Быстров и др. -М.: Наука, 1990.-240 с.

117. Мальцев А.И. Алгебраические системы. - М.: Наука, 1970. - 392 с.

118. Назаров С.В. Операционные системы специализированных вычислительных комплексов: теория построения и системного проектирования. - М.: Машиностроение, 1989. - 400 с.

119. Официальный сайт Java Development Environment //jade.tilab.com URL: http://jade.tilab.com/ (дата обращения: 09.04.2014).

120. Вашкевич Н.П., Зинкин С.А., Карамышева Н.С. Облачная платформа для реализации агентно-ориентированных метакомпьютерных систем // Вестник Поволжского государственного технологического университета. Серия «Радиотехнические и инфокоммуникационные системы». - 2013. -№ 3. - С. 42-54.

121. Официальный сайт GNU Archimedes // gnu.org [Электронный ресурс]. URL: http://www.gnu.org/soflware/archimedes/ (дата обращения: 09.04.2014).

122. Официальный сайт Cogenda Genius // cogenda.com [Электронный ресурс]. URL: http://www.cogenda.com/article/Genius (дата обращения: 09.04.2014).

123. Официальный сайт Yasper // yasper.org [Электронный ресурс]. URL: http://www.yasper.org/ (дата обращения: 09.04.2014).

124. Котов В.Е. Сети Петри. - М.: Наука, 1984. - 160 с.

125. Питерсон Дж. Теория сетей Петри и моделирование систем. - М.: Мир, 1984.-264 с.

126. Кулагин В.П. Формирование информационных ресурсов на основе параллельных вычислений.// Перспективы науки и образования. - 2013. -№6.-С. 26-31.

127. Кулагин В.П. Моделирование структур параллельных ВС на основе сетевых моделей. - М.: МИЭМ, 1998. - 102 с.

128. Вашкевич Н.П., Дубинин В.Н. Формализованное описание и верификация дискретных событийных систем с параллельными процессами // Вопросы радиоэлектроники, сер. ЭВТ. - 2008. - № 5. - С. 51-65.

129. Вашкевич Н.П., Бикташев Р.А., Турин Е.И. Аппаратная реализация функций синхронизации параллельных процессов при обращении к разделяемому ресурсу на основе ПЛИС.// Известия высших учебных заведений. Поволжский регион. Технические науки. - 2007. - № 2. - С. 312.

130. Кулагин В.П. Алгебра сетевых моделей для описания параллельных вычислительных систем.// Автоматизация и современные технологии. -1993. - № 2. - С.25-30.

131. Топорков В.В. Модели параллельных вычислений. - М.: Физматлит, 2014.-320 с.

132. Reference Architecture Description // dodcio.defense.gov [Электронный ресурс]. URL:

http://dodcio.defense.gOv/Portals/0/Documents/DIEA/Ref_Archi_Description_Fi nal_vl_18Junl0.pdf (дата обращения: 09.04.2014)

Приложение А. Описание принципов построения базы данных системы аккаунтинга, характеристики ее состава и объема.

Разработанная база данных системы аккаунтинга реализована на принципах реляционной алгебры, и для обеспечения гибкости системы и возможности связи с другими компонентами данные хранятся в третьей нормальной форме. Каждый объект системы представляет собой отдельную сущность в базе данных и имеет уникальный идентификатор. Права пользователей системы определяются на уровне СУБД. Объем информации в информационной базе, определяется объемом инициализируемых данных системы и линейно возрастает с течением времени.

Информация о таблицах, используемых в схеме БД, представлена в табл.

А.1:

Таблица А. 1 Список таблиц БД СА

Название Системное название Семантическое описание

Таблица пользователей users Соответствует данным, хранящимся в базе сервера авторизации

Таблица, содержащая информацию о программном обеспечении apps Представляет собой список установленного ПО с его версиями и ценой работы за единицу времени

Таблица проектов projects Соответствует ведущимся в системе активным проектам с положительным балансом на счете.

Таблица участников проекта projectusers Задает список участников проекта, которым разрешено запускать вычислительные задания, а

также содержит информацию об администраторе проекта

Таблица изменений счета проекта depositing Содержит информацию о поступлении или списании средств со счета проекта

Таблица истории завершившихся заданий history Хранит информацию о каждом завершенном задании, на основании которой в дальнейшем формируются отчеты о проделанной работе

Таблица выполняющихся заданий transactions Содержит информацию о текущих выполняющихся заданиях

Таблица использования виртуальных контейнеров containerreservations Соотносит использование прикладного приложения с участником проекта

В табл. А.2 представлен список атрибутов таблиц БД.

Таблица А.2 Список атрибутов таблиц БД СА

Название таблицы Системное название Тип данных Семантическое описание

users id INTEGER ключ

ldap_name VARCHAR(20) идентификатор в системе аутентификации

homepath VARCHAR(IOO) домашний каталог

пользователя

apps id INTEGER ключ

name VARCHAR(IOO) название приложения

version VARCHAR(20) версия приложения

cost FLOAT(K), 2) цена выполнения в единицу времени

projects id INTEGER ключ

name VARCHAR(40) имя проекта

account FLOAT(12, 2) текущее состояние счета

depositing id INTEGER ключ

amount FLOAT(12, 2) количество средств

project_id INTEGER внешний ключ

date DATETIME время выполнения операции со счетом

projectusers id INTEGER ключ

project_id INTEGER внешний ключ

user_id INTEGER внешний ключ

role INTEGER Роль пользователя в проекте

transactions id INTEGER ключ

veid INTEGER идентификатор

виртуального контейнера

time INTEGER ожидаемое время выполнения

start DATETIME время начала выполнения

end DATETIME время окончания выполнения

history id INTEGER ключ

time INTEGER время выполнения задания

transaction_id INTEGER внешний ключ

containerreser vations veid INTEGER ключ

projectuser_id INTEGER внешний ключ

app_id INTEGER внешний ключ

На рисунке А.1 представлена общая схема базы данных:

папе чташцт) account аОАТ{12»2)

id

Иар_пате VAR.GHAR( 20}

homepath VARCЖЯ( Ш )

apps ^^^J

id INT/

" ' name VARCHAR( 100 )|t

" version VARCHAR(20>t

" cost , 1 FlOAT( 10, 2 )j»

1

-J>, id

" amount аОАТ( 12, 2) р projectjd INT/1

.date OATETMSd

^projectuscrs^j,

JpJd WT|/

-+gp projectjd BiT4/ H^p userJd m| JroSe INT

•J>

P vdd ШТр

» time ffflji

9 star tOATHTb'-E d

end DATETIMBd

containerreseryations t

jAveid M^P projectuserjd IM1 —jdp'appjd VI?/

Рисунок А.1 Схема базы данных системы аккаунтинга

Приложение Б. Формат ХМЬ-файлов с метаинформацией о вычислительных заданиях, использующихся при взаимодействии компонентов ПООС с внешними ресурсами.

Формат запроса, передаваемого ПООС вычислительному ресурсу через систему аккаунтинга, представлен в таблице Б.1.

Таблица Б.1 Структура файла запроса ПООС к внешнему ресурсу

Название Тип данных Семантическое описание

command xsd: string команда, передаваемая ПУЗ: run, abort, monitor

job_id xsd:string идентификатор задания в системе

exec xsd:string команда запуска задания

wall_time xsd:duration общее время выполнения

proc_number xsdipositivelnteger количество процессоров

node_number xsd:positive!nteger количество вычислительных узлов

Формат ответа, возвращаемого подсистемой управления заданиями на соответствующий запрос, представлен в таблице Б.2. Таблица Б.2 Структура файла ответа на запрос

Название Тип данных Семантическое описание

job_id xsd:string идентификатор задания в системе

status xsd:string текущий статус задания: added, started, finished,

aborted.

current_time xsd: duration текущее время выполнения задания

adding_time xsd:datetime время добавления задания в очередь

start_time xsd:timestamp время начала выполнения задания

end_time xsd:timestamp время оконочания выполнения задания

localjob_id xsd:string идентификатор задания на вычислительном ресурсе

Приложение В. Формат XML-файла логико-алгебраической модели.

Основанный на XML формат ХМРТ программы «Предикатная сеть» представлен в таблице В.1. Он предназначен для описания логико-алгебраических моделей с их последующим анализом и верификацией.

Таблица В.1 Формат файла ХМРТ, для описания логико-алгебраческих моделей

Название Аттрибуты Семантическое описание

Trans Cond Задает декларативную часть абстрактного модуля с помощью наборов предикатов

Oper Задает императивную часть выполнения изменения текущего состояния модели

Desc Словесное описание модуля

Var Name Задает имя очереди данных

Value Задает значение очереди в начальной интерпретации модели

Приложение Г. Матрицы совместимости для системных сценариев работы ПООС.

В разделе приводятся созданные анализатором матрицы совместимости компонентов, переведенные синтезатором в текстовый формат. Всего рассмотрено пять сценариев:

Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.