ИССЛЕДОВАНИЕ СОВРЕМЕННЫХ МЕТОДОВ ПОСТРОЕНИЯ ПРОГНОЗИРУЮЩИХ АНСАМБЛЕЙ ПРИМЕНИТЕЛЬНО К ЗАДАЧЕ ИНТЕРВАЛЬНОГО ПРОГНОЗИРОВАНИЯ

Дата поступления: 
14.06.2017
Год: 
2017
Номер журнала (Том): 
УДК: 
519.688
DOI: 

10.26731/1813-9108.2017.3(55).94-101

Файл статьи: 
Страницы: 
94
101
Аннотация: 

В настоящее время исследователи уделяют много внимания разработке и совершенствованию методов машинного обучения для решения различных прикладных задач. Одной из таких немаловажных задач является задача прогнозирования динамических показателей с целью повышения эффективности принятия управленческих решений в условиях неопределённости. Несомненно важной характеристикой любого метода прогнозирования является точность прогнозов. Одним из наиболее перспективных и современных направлений по улучшению точности прогнозирования является построение прогнозирующих ансамблей

В данной работе проведено исследование существующих методов построения прогнозирующих ансамблей с целью обоснования их использования для задачи интервального прогнозирования. Среди таких методов были рассмотрены: метод голосования, метода бустинга, метод стеккинга, метод бэггинга и метод случайных подпространств. С учетом специфики построения и обучения моделей интервального прогнозирования были рекомендованы для применения метод стеккинга и ме-тод бэггинга. Именно эти методы являются современными, перспективными и подходящими для разработанных авторами моделей интервального прогнозирования с целью улучшения точности прогнозов.

Список цитируемой литературы: 

1. James G., Witten D., Hastie T., Tibshirani T. An Introduction to Statistical Learning with Applications in R. 2013. 426 p.

2. Elliott G., Granger C., Timmermann A. Handbook of Economic Forecasting. 2013. Vol 2. 1324 p.

3. Краковский Ю.М., Лузгин А.Н. Прикладные аспекты применения интервального прогнозирования в системном анализе // Современные технологии. Системный анализ. Моделирование. 2017. № 2(52).

4. Краковский Ю.М., Лузгин А.Н. Алгоритм интервального прогнозирования динамических показателей на основе робастной вероятностной кластерной модели // Наука и образование. 2016. №11. С. 113–126. URL: http://technomag.neicon.ru/doc/84 9839.html (дата обращения: 17.05.2017).

5. Краковский Ю.М., Лузгин А.Н. Алгоритм интервального прогнозирования динамических показателей на основе вероятностной нейросетевой модели // Современные технологии. Системный анализ. Моделирование. 2016. № 4 (50). C. 126–132.

6. Краковский Ю.М., Лузгин А.Н. Программный комплекс интервального прогнозирования нестационарных динамических показателей // Вестник ИрГТУ. 2015. №4. С.12–16.

7. Городецкий В.И., Серебряков С.В. Методы и алгоритмы коллективного распознавания // Труды СПИИРАН. 2006. № 3 (1). C. 139–171.

8. Opitz D., Maclin R. Popular ensemble methods: An empirical study // Journal of Artificial Intelligence Research. 1999. Vol.11. pp. 169–198.

9. Polikar R. Ensemble based systems in decision making // IEEE Circuits and Systems Magazine. 2006. №6 (3). pp. 21–45.

10. Rokach L. Ensemble-based classifiers // Artificial Intelligence Review. 2010. №33 (1-2). pp. 1–39.

11. Lam L., Suen S.Y. Application of majority voting to pattern recognition: an analysis of its behavior and performance // IEEE Transactions on Systems, Man, and Cybernetics (Part A: Systems and Humans). 1997. Vol. 27. № 5, pp. 553–568.

12. Clemen R.T. Combining forecasts: A review and annotated bibliography // International Journal of forecasting. 1989. № 5. pp. 559–583.

13. Michael I.I., Jacobs R.A. Hierarchical mixtures of experts and the EM algorithm // Neural computation. 1994. № 6.2. pp. 181–214.

14. Schapire R.E., Freund Y. Boosting: Foundations and Algorithms (Adaptive Computation and Machine Learning series). 2014. 554p.

15. Collins M. Linear Classifiers. 2012. URL: http://www.cs.columbia.edu/~mcollins/courses/6998-2012/lectures/lec1.3.pdf (дата обращения: 16.08.2016).

16. Friedman I, Hastie T., Tibshirani R. Additive logistic regression: a statistical view of boosting (With discussion and a rejoinder by the authors) // The Annals of Statistics. 2000. Vol. 28. № 2. pp. 337–407.

17. García E., Lozano F. Boosting Support Vector Machines // Proceedings - ICMLA 2005: Fourth International Conference on Machine Learning and Applications. 2005. pp. 374–379.

18. Ting K.M., Zheng Z. A Study of AdaBoost with Naive Bayesian Classifiers: Weakness and Improvement // Computational Intelligence. 2003. Vol.19. №.2. pp. 186–200.

19. Mease D., Wyner A., Buja A. Boosted Classification Trees and Class Probability // Journal of Machine Learning Research. 2007. №. 8, pp. 409–439.

20. Grim I., Pudil P. Somol. P. Boosting in probabilistic neural networks // Object recognition supported by user interaction for service robots, 2002, vol.2, pp. 126-139.

21. Wolpert D.H. Stacked generalization // Neural Networks, 1992, vol.5, №2, pp.241-259.

22. Ting K.M., Witten, I.H. Stacked generalization: when does it work? // Proceedings of the Fifteenth international joint conference on Artifical intelligence. 1997. Vol.2. pp. 866–871.

23. Breiman L. Bagging Predictors // Technical Report No. 421. 1994. URL: https://www.stat.berkeley.edu/~breiman/bagging.pdf (дата обращения: 14.02.2017).

24. Ho T.K. The Random Subspace Method for Constructing Decision Forests // IEEE Transactions on Pattern Analysis and Machine Intelligence. 1998. Vol. 20 (8), pp. 832–844.

25. Bryll R. Attribute bagging: improving accuracy of classifier ensembles by using random feature subsets // Pattern Recognition. 2003. Vol. 36 (6). pp. 1291–1302.

26. Skurichina M., Duin R. Bagging, Boosting and the Random Subspace Method for Linear Classifiers // Pattern Analysis & Applications. 2002. Vol.5. Issue 2. pp.121–135.