Аппроксимация критериального функционала в задачах математической диагностики тема диссертации и автореферата по ВАК РФ 01.01.09, кандидат физико-математических наук Григорьева, Ксения Владимировна

  • Григорьева, Ксения Владимировна
  • кандидат физико-математических науккандидат физико-математических наук
  • 2006, Санкт-Петербург
  • Специальность ВАК РФ01.01.09
  • Количество страниц 191
Григорьева, Ксения Владимировна. Аппроксимация критериального функционала в задачах математической диагностики: дис. кандидат физико-математических наук: 01.01.09 - Дискретная математика и математическая кибернетика. Санкт-Петербург. 2006. 191 с.

Оглавление диссертации кандидат физико-математических наук Григорьева, Ксения Владимировна

Оглавление.

Список основных обозначений.

Введение.

Рекомендованный список диссертаций по специальности «Дискретная математика и математическая кибернетика», 01.01.09 шифр ВАК

Введение диссертации (часть автореферата) на тему «Аппроксимация критериального функционала в задачах математической диагностики»

Постановка задачи.7

Цель работы.10

Методы исследований.10

Научная новизна.10

Практическая и теоретическая значимость.11

Связь с научными программами.11

Публикации.11

Апробация.11

Структура работы.12

Содержание работы.13'

Основные результаты, выносимые на защиту.20

Похожие диссертационные работы по специальности «Дискретная математика и математическая кибернетика», 01.01.09 шифр ВАК

Заключение диссертации по теме «Дискретная математика и математическая кибернетика», Григорьева, Ксения Владимировна

Заключение

Основой главы 3 являются результаты численных экспериментов по применению предложенных методов на примере шести баз данных. На основании сравнения полученных результатов с уже имеющимися по следующим пунктам: процент отделимости (удалось улучшить, ухудшилось либо не изменилось); при каком е получается лучший результат; какое из направлений наискорейшего спуска целесообразно использовать, а также на предмет качества применения суррогатного или натурального функционалов, - делается следующее заключение.

Исследование предложенных в данной работе баз данных показало, что существенной разницы в процентах отделимости не получилось (на примерах ЖКБ и HD в процентном отношении улучшение наблюдалось не более, чем на 3%), что свидетельствует о работоспособности алгоритмов минимизации функционалов Qi и Q2(1) при любом достаточно малом 8.

Сравнивая работу функционалов Qb Qi(I), Q/2) при е = 0.001 для Висконсинской базы данных, сформированной из параметров по результатам ранжирования Кокориной А.В., можно констатировать, что при одной комбинации параметров дает лучший результат один алгоритм, при другой -другой. В некоторых случаях получились одинаковые результаты. Поэтому, однозначно утверждать, что какой-либо из функционалов и методов построения наискорейшего спуска предпочтительнее другого, невозможно.

В целом, улучшить имеющиеся результаты не удалось, более того, на 1-2% результаты, в среднем, ухудшились. Это дает возможность думать, что большой набор точек, образующих достаточно плотное "сгущение", гиперплоскостью отделять проблематично и недостаточно эффективно.

Использование напрямую суррогатных функционалов (базы данных -инфаркт) позволило наблюдать следующие моменты:

1. Отрицательное влияние точек, попавших на гиперплоскость.

2. Положительная роль вещественного значения суррогатного функционала в отличие от натурального, принимающего целочисленное значение.

На примере базы данных РМЖ задача диагностирования пациентов была расширена до задачи прогнозирования эффективности применения лечения и на основании построенной методики была построена следующая оценка эффективности прогнозирования лечения онкологии химиотерапией: 70.49% - успех для множества А - "успешные" из 140 пациентов в случае проведения химиотерапии; и 73.42% - успех для множества В -"неуспешные" из 140 пациентов в случае отсутствия химиотерапии.

На основании полученных результатов исследования сформулируем основные результаты диссертационной работы:

1. Введены два новых суррогатных функционала, изучены их свойства, установлена субдифференцируемость функционала Fle(y,d) и гладкость функционала F2e(y,d).

2. Построены численные методы для минимизации этих функционалов при наличии ограничений. Построены численные методы для минимизации натурального функционала, в которых информация о направлениях наискорейшего спуска суррогатных функционалов используется для минимизации натурального функционала.

3. Создано соответствующее программное обеспечение. Проведено тестирование на шести известных базах данных, подтвердившее эффективность предложенных методов.

4. Разработаны рекомендации для их практического применения (в частности, для решения задачи прогнозирования эффективности применения химиотерапии при лечении онкологических заболеваний).

Список литературы диссертационного исследования кандидат физико-математических наук Григорьева, Ксения Владимировна, 2006 год

1. Амосов Н.М., Зайцев Н.Г., Мельников А.А. и др. Медицинская информационная система. - Киев: Наукова думка, 1971.

2. Бейли Н. Математика в биологии и медицине: Пер. с англ. М.: Мир, 1970.

3. Бейли Н. Статистические методы в биологии / Пер. с англ.; под ред. В.В. Налимова. -М.: Изд-во «Инострлит.», 1962.

4. Бешелев С.Д., Гурвич Ф.Г. Математико-статистические методы экспертных оценок. -М.: Статистика, 1980.

5. Вальд А. Статистические решающие функции. Позиционные игры. Под ред. Н.Н. Воробьева и Н.Н Врублевской. М.: Наука, 1967, с. 300-522.

6. Вапник В.Н., Червоненкис А.Я. Теория распознавания образов (статистические проблемы обучения). М.: Наука, Главная редакция физико-математической литературы, 1974.

7. Варис Я.В. Одномерная идентификация двух дискретных множеств с помощью двух отрезков // Труды XXXV научной конференции аспирантов и студентов «Процессы управления и устойчивость». СПб: Издательство СПбГУ, 2004, с. 291-293.

8. Васильев Ф.П., Численные методы решения экстремальных задач, М., "Наука", 1980.

9. Гельфанд И.М., Пятецкий-Шапиро И.И., Федоров Ю.Г. Отыскание структуры кристаллов с помощью метода нелокального поиска // ДАН СССР, т. 152, № 5,1963, с. 1045-1048.

10. Генкин А.А. Новая информационная технология анализа медицинских данных (программный комплекс ОМИС). СПб.: Политехника, 1999.

11. Головкин Б.А. Машинное распознавание и линейное программирование. — М.: Советское радио, 1972.

12. Григорьева К.В. Метод проектирования в одной задаче идентификации. Процессы управления и устойчивость. Труды XXXIV научной конференции аспирантов и студентов. СПб: Изд-во С.-Петерб. Ун-та, 2003, с.268-271.

13. Григорьева К.В. Задача идентификации точек двух конечных множеств. Сборник материалов Всероссийской научно-технической конференции "Искусственный интеллект в XXI веке". Пенза, Приволжский Дом знаний, 2003, стр.74-77.

14. Григорьева К.В. Метод проектирования в одной задаче идентификации. Актуальные проблемы современного строительства. 56-я Международная научно-техническая конференция молодых ученых. Сборник докладов. СПб, СПбГАСУ, 2004, с.48-50.

15. Григорьева К.В. Идентификация множеств с помощью негладкой модели. Процессы управления и устойчивость. Труды XXXV научной конференции аспирантов и студентов. СПб: Изд-во С.-Петерб. Ун-та, 2004, с.294-296.

16. Гублер Е.В. Вычислительные методы анализа и распознавания патологических процессов. Л.: Медицина, 1978.

17. Демьянов В.Ф. Идентификация точек двух выпуклых множеств // Вестник Санкт- Петербургского университета. Серия I, вып. 3 (N 17), 2001, с. 14-20.

18. Демьянов В.Ф., Васильев Л. В. Недифференцируемая оптимизация. М: Наука, 1981.

19. Демьянов В.Ф. Условия экстремума и вариационные задачи. СПб.: НИИ Химии СПбГУ, 2000, 136 с.

20. Демьянов В.Ф. Рубинов A.M. Основы негладкого анализа и квазидифференциальное исчисление.-М.: Наука, 1990.-432 с.

21. Дубров A.M. Обработка статистических данных методом главных компонент. М.: Статистика, 1978.

22. Дюк В.А. Методология поиска логических закономерностей в предметной области с нечеткой системологией. Автореферат диссертации насоискание ученой степени д.т.н. СПб, СПбГУ, 2005.

23. Елисеева И.И., Руковишников В.О. Группировка, корреляция, распознавание образов. -М.: Статистика, 1977.

24. Журавлев Ю.И., Дмитриев А.Н., Кренделев Ф.Н. О математических принципах классификации предметов и явлений. Дискретный анализ. Сб. трудов ИМ СО АН СССР. Новосибирск, № 7,1966.

25. Загоруйко Н.Г. Методы распознавания и их применения. М.: Советское радио, 1972.

26. Карманов В.Г. Математическое программирование. М.: Наука, 1975.

27. Козинец Б.Н. Рекуррентный алгоритм разделения двух множеств. В сб. под ред. В.Н. Вапника «Алгоритмы обучения распознавания образов». М.: Советское радио, 1973.

28. Кокорина А.В. Оптимизационный подход в задачах математической диагностики. Диссертация на соискание ученой степени к.ф.-м.н. СПб, СПбГУ, 2004.

29. Малета Ю.С., Тарасов В.В. Математические методы статистического анализа в биологии и медицине. Вып. 1, вып. 2.-М.: Изд-во МГУ, 1982.

30. Неймарк Ю.И., Баталова З.С. и др. Распознавание образов и медицинская диагностика. М.: Наука, 1972.

31. Первозванский А.А. Распознавание абстрактных образов, как задача линейного программирования // Известия АН СССР, Техническая кибернетика, № 4,1965.

32. Петрова Н.В. Разделение двух дискретных одномерных множеств методом изоляции // Труды XXXV научной конференции аспирантов и студентов «Процессы управления и устойчивость». СПб: Издательство СПбГУ, 2004, с. 328-330.

33. Поляк Б.Т. Методы оптимизации. М.: Наука, 1981. - 384 с.

34. Приставко В.Т., Ярвельян А.В. Методы разделяющей гиперплоскости в медико-биологических задачах // Труды XXXV научной конференцииаспирантов и студентов «Процессы управления и устойчивость». СПб: Издательство СПбГУ, 2004, с. 331-333.

35. Пшеничный Б.Н., Данилин Ю.М. Численные методы в экстремальных задачах. М.: Наука, 1975. - 320 с.

36. Славин М.Б. Методы системного анализа в медицинских исследованиях. -М.: Медицина, 1989.

37. Урбах В.Ю. Дискриминантный анализ: основные идеи и приложения. Сб. Статистические методы классификации, вып. 1.МГУ, 1969.

38. Фомин В.Н. Математическая теория обучаемых опознающих систем. -М.:Изд-во ЛГУ, 1976.

39. Anderberg M.R. Cluster Analysis for Applications. Academic Press, 1973.

40. Babu G.P. and Murty M.N. A near optimal initial seed value selection in the k-means algorithm using a genetic algorithm. Pattern Recognition Letters 14,1993, pp. 763-769.

41. Bagirov A.M., Rubinov A.M. and Yearwood J. A global optimization approach to classification. Optimization and Engineering 3, 2002, pp. 129155.

42. Bennett K.P. and Mangasarian O.L. Robust linear programming discrimination of two linearly inseparable sets. Optimization Methods and Software 1, 1992, pp. 23-34.

43. Bhuyan N.J., Raghavan V.V. and Venkatesh K.E. Genetic algorithms for clustering with an ordered representation. Proceedings of the Fourth International Conference on Genetic Algorithms, 1991, pp. 408-415.

44. Bradley P.S. and Mangasarian O.L. Feature selection via concave minimization and support vector machines. Machine Learning Proceedings ofthe Fifteenth International Conference (ICML'98), San Francisco, California. Morgan Kaufmann, 1998, pp. 82-90.

45. Bradley P.S. and Mangasarian O.L. Massive data discrimination via linear support vector machines. Optimization Methods and Software 13, 2000, pp. 1-10.

46. Cristianini N. and Shawe-Taylor J. An Introduction to Support Vector Machines and other kernel based methods. Cambridge University Press, 2000.

47. De Coste D. and Scholkopf B. Training invariant support vector machines. Machine Learning 46,2002, pp. 161-190.

48. V.F. Demyanov. Mathematical diagnostics via nonsmooth analysis. OMS, vol. 20, № 2-3,2005, pp.197-218.

49. Fisher R.A. Contributions to Mathematical Statistics. New-York, 1952.

50. Hansen P. and Jaumard B. (1997). Cluster analysis and mathematical programming. Mathematical Programming 79, pp. 191-215.

51. Highleyman W.H., Linear decision functions with applications to pattern recognition. Proc. IRE, № 6,1962.

52. Jain A.K., Murty M.N. and Flynn P.J. Data clustering: a review. ACM Computing Surveys 31,1999, pp. 264-323.

53. Kokorina A.V. Unsupervised and supervised Data Classification Via Nonsmooth and Global Optimization. Top, Volume 11, Number 1. June 2003. -Sociedad de Estadistica e Tnvestigacion Operativa, Madrid, Spain, pp. 86-89.

54. Lee, Y.-J. and Mangasarian, O.L. SSVM: a smooth support vector machine for classification. Computational Optimization and Applications, 2001,20(1). 5-22.

55. Mangasarian O.L. Linear and nonlinear separation of patterns by linearprogramming. Operations Research, vol. 13, 1965, pp. 444-452.

56. Mangasarian O.L. Misclassification minimization. Journal of Global Optimization 5, 1994, pp. 309-323.

57. Mangasarian O.L. Mathematicalv programming in data mining. Data Mining and Knowledge Discovery 1, 1997, pp. 183-201.

58. Michie D., Spiegelhalter D J. and Taylor C.C. Machine Learning, Neural and Statistical Classification. Ellis Horwood Series in Artificial Intelligence, 1994.

59. Mirkin B. Mathematical Classification and Clustering. Kluwer Academic Publishers, 1996.

60. Murphy P.M. and Aha D.W. UCI repository of machine learning databases. Technical report, Department of Information and Computer science, University of California, Irvine, 1992.

61. Nagy G. State of the art in pattern recognition. Proceedings of the IEEE 56,1968, pp. 836-862.

62. Quinlan J.R. Programs for Machine Learning. Morgan Kaufmann, San Mateo, 1993.

63. Rubinov A.M., Soukhoroukova N.V. and Yearwood J. Clustering for studing structure and quality of datasets, Research Report 01/24, University ofBallarat, 2001.

64. Scholkopf B. and Smola A. Learning with Kernels. The MIT Press, 2002.

Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.