Робастна модель баєсiвської регресiї у формi Бернштейна

Автор(и)

  • Олег Юрiйович Митник Національний університет «Києво-Могилянська академія», Україна https://orcid.org/0009-0004-4706-0921

DOI:

https://doi.org/10.18523/2617-70807202444-50

Ключові слова:

ПРIАМ, баєсiвський висновок, БПР, нейронечiтка модель, полiноми в формi Бернштейна

Анотація

Тут представлений iндуктивний метод побудови робастних моделей баєсiвської полiномiальної регресiї (БПР) у формi Бернштейна, що отримав назву ПРIАМ. ПРIАМ – це алгоритм, призначений для визначення стохастичної залежностi мiж змiнними. Трикомпонентна природа ПРIАМ поєднує переваги баєсiвського висновку, прозорiсть та лiнгвiстичну iнтерпретовнiсть нейронечiтких моделей у формi Бернштейна, робастнiсть методу опорних векторiв.
Алгоритм апробовано на вiдомих штучних наборах даних, а також на реальних моделях рiзного розмiру та рiвня зашумленостi. Складено рейтинг, який демонструє переваги запропонованого алгоритму за бiльшiстю метрик.

Біографія автора

Олег Юрiйович Митник, Національний університет «Києво-Могилянська академія»

канд. техн. наук, старший викладач кафедри математики Нацiонального унiверситету «Києво-Могилянська академiя». Сфера наукових iнтересiв: теорiя ймовiрностi, машинне навчання.

Посилання

  1. E. T. Jaynes, Probability Theory: The Logic of Science (Cambridge : Cambridge University Press, 2003).
  2. S. Gull, in: Maximum Entropy and Bayesian Methods, ed. by Erickson G. J., Smith C. R. (Dordrecht: Kluwer Academic, 1988), pp. 53–74.
  3. D. J. C. Mackay, Neural Computations. 4, 448–472 (1992).
  4. C. E. Rasmussen and C. K. I. Williams, Gaussian Processes for Machine Learning (Cambridge, MA: MIT Press, 2006).
  5. M Brown and C. J. Harris, Neurofuzzy adaptive modelling and control (Hemel Hempstead: Prentice Hall, 1994).
  6. X. Hong and C. J. Harris, IEEE Trans. Neural Networks. 11 (4), 889–902 (2000).
  7. V. N. Vapnik, Statistical learning theory (New York: John Wiley and Sons Inc., 1998).
  8. C. Cortes and V. Vapnik, Machine Learning. 20, 273–297 (1995).
  9. V. Vapnik, S. Golowich, and A. Smola, Advances in Neural Information Processing Systems. 9, 281–287 (1997).
  10. W. Chu, S. Keerthi, and C. J. Ong, IEEE Trans. Neural Networks. 15 (1), 29–44 (2004).
  11. M. Kuss and C. E. Rasmussen, Journal of Machine Learning Research. 6, 1679–1704 (2005).
  12. O. Y. Mytnyk and P. I. Bidyuk, System Research and Information Technologies. 2, 24–34 (2004).
  13. O. Y. Mytnik, Cybernetics and Sys. Anal. 43 (4), 613–620 (2007).
  14. T. F. Coleman and Y. Li, Mathematical Programming. 67 (2), 189–224 (1994).
  15. J. B. Gao, S. R. Gunn, C. J. Harris, and M. Brown, Machine Learning. 46 (1–3), 71–89 (2002).
  16. NIST Standard Reference Database 140, https://www.itl.nist.gov/div898/strd.
  17. UCI Repository of machine learning databases, https://archive.ics.uci.edu/datasets.
  18. Y. Gorodnichenko, Effects of intergovernmental aid on fiscal behavior of local governments: the case of Ukraine : EERC MA thesis (NaUKMA, 2001).
  19. O. Y. Mytnyk, in: Proceedings of 2nd International Conference on Inductive Modelling, 15–19 Sept. 2008 (Kyiv, 2008), pp. 148–152.

##submission.downloads##

Опубліковано

2025-05-12