Нейросетевой метод моделирования кинематики в радионавигационной системе автономного подвижного объекта тема диссертации и автореферата по ВАК РФ 05.12.14, кандидат технических наук Винокуров, Игорь Викторович

  • Винокуров, Игорь Викторович
  • кандидат технических науккандидат технических наук
  • 2006, Москва
  • Специальность ВАК РФ05.12.14
  • Количество страниц 188
Винокуров, Игорь Викторович. Нейросетевой метод моделирования кинематики в радионавигационной системе автономного подвижного объекта: дис. кандидат технических наук: 05.12.14 - Радиолокация и радионавигация. Москва. 2006. 188 с.

Оглавление диссертации кандидат технических наук Винокуров, Игорь Викторович

ВВЕДЕНИЕ.

1. ОСОБЕННОСТИ РАБОТЫ РАДИОНАВИГАЦИОННОЙ СИСТЕМЫ АВТОНОМНОГО ПОДВИЖНОГО ОБЪЕКТА НОВОГО ПОКОЛЕНИЯ.

1.1 Особенности работы радионавигационной системы автономного подвижного объекта в режиме поиска.

1.2. Особенности работы радионавигационной системы автономного подвижного объекта в режиме радиокоррекции.

1.3. Цель работы.

Рекомендованный список диссертаций по специальности «Радиолокация и радионавигация», 05.12.14 шифр ВАК

Введение диссертации (часть автореферата) на тему «Нейросетевой метод моделирования кинематики в радионавигационной системе автономного подвижного объекта»

Возрастающие в настоящее время требования к военной технике неизбежно приводят к поиску новых решений, повышающих её технические и эксплуатационные характеристики. Не являются исключением и двухсред-ные ракеты класса воздух-вода, представляющие собой непилотируемые автономные подвижные объекты (АПО) и являющиеся практически единственным эффективным способом поражения подводных лодок (ГШ) в водной среде.

Основные функции АПО реализуются его радионавигационной системой (РНС), осуществляющей в зависимости от конкретных условий его применения либо радиоуправляемое движение АПО по программной траектории либо радиокорректируемое движение к ПЛ [1-6]. Для реализации каждого из этих типов движения в РНС АПО должны быть известны линейные координаты программной траектории его движения или линейные координаты ПЛ в инерциальной (мировой) системе координат [7]. В РНС АПО нового поколения линейные координаты для всех типов его движения определяются в связанной с ним системе координат, а затем перерасчитываются для инерциальной. Последняя система координат в РНС АПО нового поколения моделируется математически и реализуется вычислительным образом. Необходимым и важным этапом этого процесса является моделирование кинематики АПО, или иными словами определение параметров, тем или иным образом задающих переход от связанной с АПО системы координат к инерциальной. К таким параметрам относятся направляющие косинусы, углы Эйлера-Крылова, и группа параметров определяющих вектор конечного Эйлерова поворота [8]. Из всех перечисленных выше параметров наибольшего внимания с точки зрения практической реализации заслуживает последняя группа кинематических параметров, и в частности кинематические параметры Родрига-Гамильтона, поскольку их использование приводит к ощутимому сокращению объёма вычислений по сравнению с моделированием направляющих косинусов и позволяет исключить особые точки, свойственные процессу моделирования углов Эйлера-Крылова [8].

Математическое моделирование кинематических параметров Родрига-Гамильтона в РНС АПО заключается в интегрировании системы линейных обыкновенных дифференциальных уравнений (СЛОДУ) с переменными коэффициентами. Нахождение решения этого СЛОДУ, или иными словами нахождение решения кинематических уравнений, является одной из самых ответственных составляющих вычислительного процесса, реализуемого в РНС, поскольку его точность определяет точность пересчёта линейных координат АПО от связанной с ним системы координат к инерциальной и, как следствие, количественные параметры рассогласования его движения от заданной (программной) траектории. Требуемая точность моделирования кинематических параметров Родрига-Гамильтона может быть достигнута только за счёт использования достаточно сложных численных методов интегрирования СЛОДУ, реализация которых на традиционных вычислительных устройствах (ВУ) с последовательной архитектурой Фон-Неймана неизбежно приводит к увеличению объёма и как следствие времени моделирования. Одним из методов сокращения времени моделирования кинематических параметров АПО и, как следствие, повышения быстродействия РНС, является распараллеливание реализуемых в ней вычислений. Из всех ВУ, реализующих тот или иной тип параллелизма, использование нейропроцессора (НП) в качестве ЦВМ АПО является наиболее предпочтительным, поскольку он позволяет достаточно эффективно решить практически неформализуемую задачу распознавания ПЛ.

В наиболее общем смысле под НП обычно понимается ВУ, архитектура которой ориентирована на выполнении операций, реализуемых нейронными сетями (НС) [9-11]. Последние представляют собой совокупность относительно простых обрабатывающих нейроноподобных элементов (формальных нейронов или просто нейронов) тем или иным образом объединённых между собой. Взвешенные весовыми коэффициентами межнейронных связей входные сигналы нейроноподобных элементов суммируются и затем преобразуются их функциями активации в некоторые выходные сигналы. Сигналы от нейроноподобных элементов и представляют собой выходной сигнал НС.

С точки зрения вычислительной техники НП представляет собой многопроцессорную ВУ с параллельными потоками одинаковых команд и множественным потоком данных, в которой сильно упрощены процессорные элементы и резко усложнены связи между ними.

Исторически сложилось так, что традиционными задачами для НП являются трудноформализуемые и неформализуемые задачи [11, 12]. К труд-ноформализуемым относятся задачи, в которых достаточно трудно оценить качество или достижимость их решения. К данному классу задач могут быть отнесены задачи столь большой размерности, что сходимость, устойчивость и точность нахождения их решения трудно оценить аналитически. К не-формализуемым относятся задачи, в решения которых присутствуют неявно заданные параметры или функции, описывающие некоторые классы объектов или сигналов. К задачам этого класса могут быть в свою очередь отнесены задачи распознавания образов, кластеризации, самообучения, нахождения некоторых информативных признаков и т.п.

Все известные в настоящее время методы решения подобных классов задач на НК (нейросетевые методы - НМ), связаны в основном с выбором определённого типа НС (например, НС Хопфилда, Гроссберга, Кохонена и др. [11, 13-18]) и некоторых режимов её работы. Неотъемлемой частью таких НМ является процесс обучения НС, или иными словами, процесс итерационной настройки весовых коэффициентов её межнейронных связей.

Однако в настоящее время НП используются и для решения хорошо формализуемых (алгоритмизируемых) классов задач, т.е. задач, с точно определённым и, как правило, единственным алгоритмом решения - обращение матриц [19], задачи комбинаторики [20], сортировка [21-23], нахождение решения линейных и нелинейных алгебраических уравнений и неравенств [2428], интегрирование обыкновенных дифференциальных и дифференциальных уравнений в частных производных [29-36], дифференцирование интегральных равнений с произвольной нелинейной правой частью [37, 38] и т.п.

В НМ решения такого класса задач этап обучения НС отсутствует, поскольку весовые коэффициенты межнейронных связей могут быть определены в результате использования того или иного численного метода [39]. При этом эти численные методы могут быть существенно переработаны.

Таким образом, исходя из современного состояния и тенденций развития НП, можно сделать вывод, что они обладают большей универсальностью, чем ограниченные формализуемыми вычислениями традиционные ВУ с архитектурой Фон-Неймана, и могут быть использованы для достаточно эффективного решения многих комплексных задач, совмещающих и формализуемые и неформализуемые (или трудно формализуемые) вычисления [40].

В диссертации разрабатывается и исследуется НМ моделирования кинематики АПО в РНС, позволяющий формализовать процесс формирования НС для определения кинематических параметров АПО с заданной точностью и за заданное время. Предлагаются динамические нейросетевые модели 2-го, 3-го и 4-го порядков кинематики АПО в РНС, структурная схема динамического нейросетевого моделирования кинематики АПО в РНС и её реализация наНП 1879ВМ1.

Структура работы. Диссертация состоит из введения, 4 разделов, заключения, списка литературы из 114 наименований и 9 приложений. Общий объём диссертационной работы составляет 188 страниц; основное её содержание изложено на 134 страницах и содержит АЛ рисунок и 18 таблиц.

Похожие диссертационные работы по специальности «Радиолокация и радионавигация», 05.12.14 шифр ВАК

Заключение диссертации по теме «Радиолокация и радионавигация», Винокуров, Игорь Викторович

Диссертационная работа посвящена повышению быстродействия РНС

АПО нового поколения за счёт нейросетевой реализации определения его ки нематических параметров. К основным результатам диссертации относится сле дующие. 1. Разработан новый НМ моделирования кинематики АПО, позволяющий

формализовать процесс формирования НС для определения кинематиче ских параметров АНО в РНС с заданной точностью за заданное время. 2. Разработано новое инструментальное средство математического модели рования работы НС - НИ Neurolterator, позволяющий провести достаточно

полное исследование работы НС для определения кинематических пара метров АНО в РНС.

3. Разработана структурная схема динамического нейросетевого моделирова ния кинематики АНО в РНС.

4. Сформированы и исследованы с помощью НИ Neurolterator динамические

нейросетевые модели 2-го, 3-го и 4-го порядков кинематики АЛО в РНС.

5. В результате математического и экспериментального исследований пока зано, что реализация динамических нейросетевых моделей 2-го, 3-го и 4-го

порядков кинематики АНО в РНС на НН 1879ВМ1 позволила сократить

время определения его кинематических параметров в «8.5, «16 и «17 раз

по сравнению со временем их определения при реализации аналогичных

последовательных моделей кинематики АНО в РНС на МН Intel® 80486.

Список литературы диссертационного исследования кандидат технических наук Винокуров, Игорь Викторович, 2006 год

1. Белавин О.В, Основы радионавигации. Учебное пособие для вузов. — М.: Сов. радио, 1977. - 320 с.

2. Сосулин Ю.Г. Теоретические основы радиолокации и радионавигации. - М.: Радио и связь, 1992. - 303 с.

3. Бакулев П.А., Сосновский А.А. Радиолокационные и радионавигацион- ные системы: Учеб. пособие для вузов. - М.: Радио и связь, 1994. - 296 с.

4. Гуткин Л.С., Типугин В.Н., Пестряков В.Б. Радиоуправление. - М.: Сов. радио, 1970.-324 с.

5. Гуткин Л.С. Проектирование радиосистем и радиоустройств: Учебное по- собие для вузов. - М.: Радио и связь, 1986. — 288 с.

6. Шкирятов В.В. Радионавигационные системы и устройства. - М.: Радио и связь, 1984.-161 с.

7. Лебедев Р.К. Стабилизация летательного аппарата бесплатформенной системой инерциальной навигации. - М . : Машиностроение, 1977. - 144 с.

8. Бранец В.П., Шмыглевский И.П. Применение кватернионов в задачах ориентации твёрдого тела. - М.: Наука, 1973. — 320 с.

9. Галушкин А.И. Современные направления развития нейрокомпьютерных технологий в России // Открытые системы. - 1997. - JVfe 4. - 25 - 29.

10. Галушкин А.И., Иванов В.В., Картамышев М.Г. Некоторые концептуаль- ные вопросы развития нейрокомпьютеров // Зарубежная радиоэлектрони-ка. - 1997. - ^2 2. - 3 - 10.

11. Мкртчян СО. Нейроны и нейронные сети. - М.: Энергия, 1997. - 232 с.

12. Гилев Е., Миркес Е.М. Обучение нейронных сетей // Эволюционное моделирование и кинетика. - Новосибирск: Наука, 1992. 9 - 23.

13. Горбань А.Н. Обучение нейронных сетей. - М.: изд. "ParaGraph", 1990. - 160 с.

14. Ивахненко А.Г. Самообучающиеся системы распознавания и автоматиче- ского регулирования. - Киев: Техника, 1969. - 392 с.

15. Загоруйко Н.Г. Методы распознавания и их применение. — М.: Сов. ра- дио, 1972.-206 с.

16. Аркадьев А.Г., Браверман Э.М. Обучение машины классификации объек- тов. - М.: Наука, 1971. - 172 с.126

17. Галушкин А.И. Континуальные модели многослойных систем распозна- вания образов // Автоматика и вычислительная техника. - 1997. — №2. —С. 43-48 .

18. Бандман О.Л. Клеточно-нейронные вычисления. Формальная модель и возможные применения // Программирование. — 1997. — JSfo 2. — 29 — 40.

19. Нейроинформатика / А.Н.Горбань, В.Л.Дунин-Барковский, А.Н.Кирдин и др. - Новосибирск: Наука, Сибирская издательская фирма РАН. - 1998. -296 с.

20. Галушкин А.И., Кудрявцев A.M. Обраш;ение матрицы с помощью много- слойной системы из линейных пороговых элементов // Кибернетика и вы-числительная техника. - 1976. - № 33,34. - 71 - 78.

21. Логовский А.С. Использование нейронных сетей для решения комбина- торных задач с полным перебором // Нейрокомпьютеры: разработка нприменение.-1994, -№3,4 - 41 - 50.

22. Галушкин А.И. О решении задачи сортировки с использованием нейрон- ных сетей // Нейрокомпьютеры: разработка и применение. -1994, - JVb 3,4 . - С . 35-40.

23. Тимашев О.А. Решение задач сортировки на нейронной сети // V Всерос- сийская конференция "Нейрокомпьютеры и их применение": Сборникдокладов. -Москва, 1999.-С. 428.

24. Chen W.T., Hsieh K.R. А neural sorting network with 0(1) time complexity // IJCNN, San-Diego. - 1990. - Vol. 1. - P. 87 - 95.

25. Агеев Д.А., Ильиченкова З.В. Решение систем линейных уравнений на нейронных структурах // Нейрокомпьютеры: разработка и применение.-1997. - № 1 , 2 . - С . 35-38.

26. Галушкин А.И., Судариков В.А. Адаптивные нейросетевые алгоритмы ре- шения задач линейной алгебры // Нейрокомпьютер. - 1992. - № 2. - 21 -28.

27. Судариков В.А. Исследование адаптивных нейросетевых алгоритмов ре- шения задач линейной алгебры // Нейрокомпьютер. - 1992. - № 3,4. - 13-20.

28. Барановский A.M., Силантьев СБ., Смолицкий Х.Л. и др. Синтез нейро- 127ноподобной сети Хопфилда для решения систем линейных алгебраиче-ских уравнений//Приборостроение. - 1997.-№ 3,4.-С. 4 7 - 5 1 .

29. Forbs А.В., Mansfield A.J. Neural implementation of method for solving sys- tems of linear algebraic equations // Networks. - 1990. Vol. 2. - № 2 - P. 217-229.

30. Owens A.J. Filkin D.L. Efficient training of the backpropagation network for solving a system of stiff ordinary differential equations // IJCNN-89. - Wash-ington. - 1989. -Vol. 2. - P . 381-386.

31. Левашенко В.Г., Янушкевич Н. Решение булевых дифференциальных уравнений на нейроноподобных структурах // "Современные проблемырадиотехники и связи": Сборник научных трудов. - Минск, - 1995. - 378-380.

32. Szczepaniak Р. S., Lis Bartosz. Solving differential equations with nonlinear perceptron // Appl. Math, and Comput. Sci. - 1998. - Vol. 8. - .№ 3. - P. 599 -609.

33. Watanabe S. Differential equations accompanying neural networks and solv- able nonlinear learning machines // IJCNN-93. - Nagoya. - 1993. - Vol. 3. -P. 2698-2701.

34. Agarwal R.P., Grace S.R. Asymptotic stability of certain neural differential equations // Math. Comput. Model. (UK).- 1999. - Vol. 3 1 . - .№ 8, 9. - P. 9 -15.

35. Горбаченко В.И., Катков Н., Мирошкин В.А. и др. Решение на нейрон- ных сетях дифференциальных уравнений в частных производных // Вопро-сы радиоэлектроники. Сер. ЭВТ. - 1996. - 15-22.

36. Горбаченко В.И. Нейросетевая реализация итерационных алгоритмов ре- шения дифференциальных уравнений в частных производных // "Матема-128тика и информатика": Сборник научных трудов. - Пенза. - 1996. - 42 -49.

37. Elshafiey I., Udpa L., Udpa S.S. Development of Hopfield network for solving integral equations // IJCNN-91, - Washington. - 1991. - Vol. 1. - P. 313 -317.

38. Vemuri V., Jang G. Neural networks for Fredholm type integral equations // Appl. of Art. Neural Networks. - 1991. - Vol. 1469. - P. 563 - 574.

39. Bruck J., Goodman J. W. On the power of neural networks for solving hard problems // J. Complex. - 1990. - Vol. 6. - № 2. - P. 129 - 135.

40. Кузин Л.Т. Основы кибернетики. В 2-х т. Т.2. Основы кибернетических моделей. Учебное пособие для вузов. — М.: Энергия, 1979. - 584 с.

41. Бакулев П.А., Степин В.М. Методы и устройства селекции движущихся целей. - М.: Радио и связь, 1986. - 288 с.

42. Плекин В.Я. Цифровые устройства селекции движущихся целей: Учебное нособие. - М.: САЙНС-ПРЕСС, 2003. - 80 с.

43. Онищенко СМ. Применение гиперкомнлексных чисел в теории инерци- альной навигации. Автономные системы. - Киев: Наук. Думка, 1983. -208 с.

44. Андреев В.Д. Теория инерциальной навигации. - М.: Паука, 1966. - 236 с.

45. Ищлинский А.Ю. Ориентация, гироскопы и инерциальная навигация. - М.: Паука, 1976.-670 с.

46. Ишлинский А.Ю. Механика относительного движения и силы инерции.- М.: Паука, 1981.-191 с.

47. Кантор И.А., Солодовников А.С. Гиперкомплексные числа. - М.: Паука, 1978.-144 с.

48. Бойчук О.Ф., Ишлинский А.Ю., Стороженко В.А. Построение функции Ляпунова для совокупности уравнений основной задачи инерциальнойнавигации // Механика твёрдого тела. — 1975. — №5. — 13-18.

49. Zurada J.M., Jacek M. Introduction to artificial neural systems. - Boston: PWS Publishing Company, 1992. - 785 p.

50. Haykin S. Neural Networks: a comprehensive foundation. - NY: Macmillian, 1994.-437 p.

51. Горбань A.H., Россиев Д.A. Нейронные сети на персональном компьюте- ре. - Новосибирск: Наука. Сибирская издательская фирма РАН, 1996. -276 с.

52. Nigrin А. Neural networks for pattern recognition. - Cambrige: The MIT Press, 1993.-567 p.

53. Нейропрограммы / Л.В. Гелиева, C.E. Гелиев, A.H. Горбань и др. В 2 ч.- Красноярск: изд. КГТУ, 1994. - 260 с.

54. Hopfield J.J. Neural networks and physical systems with emergent collective computational abilities // Proceedings National Academy of Sciences USA.-1982. - № 79. - P. 2554 - 2558.

55. Hertz J., Krogh A., Palmer R.G. Introduction to the theory of neural computa- tion. - NY: Addison-Wesley, 1991.-576 p.

56. Anderson J.A., Rosenfeld E. Neurocomputing: foundation of research. - Cambridge: MIT Press, 1988. - 435 p.

57. Hebb D.O. The organization of behaviour.- NY: John Wiley & Sons, 1949. - 268 p.

58. Нейрокомпьютеры и интеллектуальные роботы / Н.М. Амосов, Т.Н. Бай- дык, А.Д. Гольцев и др. - Киев: Наук. Думка, 1991. - 271 с.

59. Connectionism in Perspective / Ed. by R. Pfiefer, Z. Schreter, F. Fogelman- Soulie, L. Steels. -North-Holland, 1989. - 518 p.

60. Теория нейронных сетей. Кн. 1: Учебное пособие для вузов / Общая ред. А.И. Галушкина. - М.: РШРЖР, 2000. - 416 с.

61. Нейроматематика. Кн. 6: Учебное пособие для вузов / Агеев А.Д., Балух- то А.Н., Бычков А.В. и др.; Общая ред. А.И. Галущкина. - М.: ИПРЖР,2002.-448 с.

62. Боглаев Ю.П. Вычислительная математика и программирование. Учеб. пособие для студентов втузов. - М.: Высщ. щк., 1990. — 544 с.

63. Логовский А.С. Методы решения обыкновенных дифференциальных уравнений в нейросетевом базисе // Нейрокомпьютер. - 1992. - № 2 - 15-20.130

64. Hyuk L. Neural Algorithm for solving differential equations // Journal of Com- putational Physics. -199O.-№ 91.-P.110-131.

65. Elias I., Likas A., Fotiadis D. Artificial neural networks for solving ordinary and partial differential equations // IEEE Transactions on Neural Network. —1988. - Vol. 9. - № 5. - P. 987 - 1000.

66. Hecht-Nielsen R. Kolmogorov's mapping neural network existence theorem // IEEE First Annual Int. Conf. on Neural Networks. - 1987. - Vol. 3. - P. 11 -13.

68. Горбань A.H. Обучение нейронных сетей. - М.: изд. СП "Para Graph", 1990.-160 с.

69. Галушкин А.И. Синтез многослойных схем распознавания образов. — М.: Энергия, 1974. - 245 с.

70. Ripley B.D. Pattern recognition and neural networks. — Cambridge: Cambridge University Press, 1996. - 403 p.

71. Muller В., Reinhart J. Neural networks: an introduction. — Berlin: Springer— Verlag, 199O.-266p.

72. Darken C , Moody J. Towards faster stochastic gradient search // Advanced in neural information processing systems. - 1992. - JST» 4. - P. 1009 - 1016.

73. Homik K., Stinchocombe M., White H. Multilayer feedforward networks are universal approximators // Neural Networks. — 1989. — Vol. 2. — P. 259 - 355.

74. Homik K., Stinchcombe M., White H. Universal approximation of an unknown mapping and its derivatives using multilayer feedforward networks // NeuralNetworks. - 1990. - Vol. 3. - P. 551 - 560.

75. Baldi P., Homik K. Neural networks and principial component analysis: leam- ing from examples without local minima // Neural Networks. - 1989. - JSfo 2. -P. 53-55.

76. Соколов E.H., Вайткявичус Г.Г. Нейроинтеллект: от нейрона к нейроком- пьютеру. - М.: Наука, 1989. - 238 с.

78. DeVore R.A., Howard R., Micchelli C.A. Optimal nonlinear approximation // Manuscripta Mathematica. - 1989. JVb 63. - P. 469 - 478.

79. Bartlett P.L. For valid generalisation, the size of the weights is more important than the size of the network // Advances in Neural Information Processing Sys-tems.-1997.-№ 9 . - P . 134-140.

80. Moody J.E. The effective number of parameters: an analysis of generalisation and regularisation in nonlinear learning systems // Advances in Neural Infor-mation Processing Systems. - 1992. - № 4. - P. 847 - 854.

81. Barlow H.B. Unsupervized learning // Neural computation. - 1989. -K» 1 - P. 295-311.

82. Bishop CM. Neural networks for pattern recognition. — Oxford: Oxford Uni- versity Press, 1995. - 482 p.

83. Lippmann R.P. An introduction to computing with neural nets // IEEE ASSP Magazine. - 1987. - Vol. 4. - Я» 2. - P. 4 - 22.

84. Jain A.K., Mao J. Neural networks and pattern recognition // Computational Intelligence: Imitating Life. - 1994. - №. 7. - P. 194 - 212.

85. Carpenter G.A., Grossberg S. Pattern recognition by self organizing neural net- works. - Cambridge: MIT Press, 1991. - 563 p.

86. Heckt-Nielsen R. Theory of the backpropagation neural network // Neural net- works for human and machine perception. — 1992. — JST» 2. — P. 65 — 93.

87. Hinton G.E. How neural networks learn from experience // Scientific Ameri- can. - 1992. - № 267. - P . 144 - 151.

88. Rumelhart D.E., Hilton G.E., Williams R.J. Learning internal representations by error propagation // Parallel distributing processing: exploration in the mi-crostructure of cognition. - 1986.— Vol. 1.-P. 318 —362.

89. Бахвалов H.C. Численные методы. - М.: Наука, 1973. - 632 с.

90. Пис1сунов Н.С. Дифференциальное и интегральное исчисления для вту- зов. - М . : Наука, 1985. - 560 с.

91. XXV лет кафедре ЭИУ2-КФ: В 17-ти книгах / Нод общей ред. А.В. Мак- симова. Кн. 6: Искусственные нейронные сети в БИНС / И.В. Винокуров.- М.: Издательство МГТУ им. Н.Э. Баумана, 2002. - 20 с.132

93. Винокуров И.В., Максимов А.В. Интегрирование нормальной системы дифференциальных уравнений в нейросетевом базисе // "Нейрокомпью-теры и их применение": Сборник трудов V всероссийской научно-технической конференции. - Москва, 1999. - 420 - 423.

94. Нейроматематика. Кн. 6: Учебное пособие для вузов / Агеев А.Д., Балух- то А.Н., Бычков А.В. и др.; Общая ред. А.И. Галушкина. - М.: ИПРЖР,2002.-448 с.

95. Нейрокомпьютеры. Кн. 3: Учебное пособие для вузов / Обитая ред. А.И. Галушкина. - М.: ИНРЖР, 2000. - 528 с.

96. Винокуров И.В. Программный комплекс Neurolterator. - В кн.: Нейро- компьютеры: Учебное пособие для вузов. - М.: Издательство МГТУ имН.Э. Баумана, 2002. - 320 с.133

97. XX лет кафедре П2-КФ: В 16-ти книгах / Под ред. А.В. Максимова. Кн. 4: Программная система Neurolterator / И.В. Винокуров. - Калуга: издательБочкарёва Н.Ф., 1997. - 2 0 с.

98. Комарцова Л.Г., Максимов А.В. Нейрокомпьютеры: Учеб. пособие для вузов. - М . : Изд-во МГТУ им. П.Э. Баумана, 2002. - 320 с.

99. Мантуров О.В. Курс высшей математики. - М.: Высш. шк., 1991. - 448 с.

100. Самойленко A.M., Кривошея А., Пересюк Н.А. Дифференциальные уравнения: примеры и задачи. — М.: Высш. шк., 1989. — 383 с.

101. Бродин В.Б., Шагурин И.И. Микропроцессор i486. Архитектура, про- граммирование, интерфейс. - М.: "ДИАЛОГ-МИФИ", 1993. - 240 с.

102. Архитектура микропроцессора NeuroMatrix NM6403 / П.А. Шевченко, Д.В. Фомин, В.М. Черников, П.Е. Виксне // V Всероссийская конферен-ция "Нейрокомпьютеры и их применение": Сборник докладов. - Москва,1999.-С. 70-80.

103. Применение микропроцессора NM6403 для эмуляции нейронных сетей / П.А. Шевченко, Д.В. Фомин, В.М. Черников, П.Е. Виксне // V Всерос.конф. "Нейрокомпьютеры и их применение": Сборник докладов. - Моск-ва, 1999.-С. 81-90.

104. Строганов Р.П. Управляющие машины и их применение. - М.: Высш. шк., 1986.-240 с.

105. Бахвалов Н.С. Численные методы. - М.: Наука, 1973. - 632 с.

Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.