Показати скорочену інформацію

dc.contributor.authorКривошея, М. І.uk
dc.contributor.authorKryvosheia, M. I.en
dc.date.accessioned2026-02-03T10:56:59Z
dc.date.available2026-02-03T10:56:59Z
dc.date.issued2025
dc.identifier.citationКривошея М.І. Дослідження феномену подвійного спуску та порівняння мінімаксної апроксимації з l2-регуляризацією // Оптико-електроннi iнформацiйно-енергетичнi технологiї. 2025. № 1. С. 36-43. URI: https://oeipt.vntu.edu.ua/index.php/oeipt/article/view/773.uk
dc.identifier.issn2311-2662
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/50573
dc.description.abstractУ цій роботі досліджено феномен подвійного спуску та запропоновано використання мінімаксної апроксимації (L∞-норма) як альтернативу L2-регуляризації для покращення якості апроксимації моделей. Подвійний спуск описує залежність похибки від складності моделі: похибка спершу зменшується, потім зростає через перенавчання, а далі знову знижується. Проте в експериментах із моделлю без регуляризації було виявлено переважно зростаючу тенденцію похибки із короткими періодами спаду, що свідчить про неповний прояв феномену. Це, ймовірно, пов’язано з аномальними точками в даних, які спричинили експоненційне зростання похибки на високих ступенях. Було розглянуто три підходи: класичну модель без регуляризації, модель із L2-регуляризацією та мінімаксну апроксимацію. L2-регуляризація додала штраф за велику норму коефіцієнтів, що дозволило стабілізувати похибку та запобігти перенавчанню, особливо на високих ступенях полінома (200+). Мінімаксна апроксимація мінімізувала максимальну похибку, завдяки чому забезпечувала кращу стійкість до аномалій і перевершувала L2-регуляризацію на низьких ступенях (до 50). Результати підтвердили, що мінімаксна апроксимація є більш ефективною для задач із аномаліями, тоді як L2-регуляризація краще працює на складних моделях із високими ступенями полінома. Отримані висновки сприяють розширенню розуміння феномену подвійного спуску й показують практичну користь різних підходів у залежності від особливостей даних і вимог до моделі.uk
dc.description.abstractThis paper investigates the phenomenon of double descent and proposes the use of minimax approximation (L∞-norm) as an alternative to L2-regularization to improve the quality of model approximation. Double descent describes the dependence of the error on the complexity of the model: the error first decreases, then increases due to overfitting, and then decreases again. In contrast, in experiments with a model without regularization, a predominantly increasing trend of the error with short periods of decline was found, which is observed for an incomplete manifestation of the phenomenon. This is probably due to anomalous points in the data that caused an exponential increase in the error at high powers. Three approaches were noted: a classical model without regularization, a model with L2-regularization, and minimal approximation. L2 regularization added a penalty for large coefficient norms, which stabilized the error and prevented overfitting, especially at high polynomial degrees (200+). Minimax approximation minimized the error, thereby providing better maximum anomaly robustness and outperforming L2 regularization at low degrees (up to 50). The results confirmed that minimax approximation is more effective for problems with anomalies, while L2 regularization performs better on complex models with high polynomial degrees. The findings contribute to the understanding of the double descent phenomenon and show the practicality of applying different approaches due to data features and model requirements.en
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofОптико-електроннi iнформацiйно-енергетичнi технологiї. № 1 : 36-43.uk
dc.relation.urihttps://oeipt.vntu.edu.ua/index.php/oeipt/article/view/773
dc.subjectподвійнний спускuk
dc.subjectL2-регуляризаціяuk
dc.subjectмінімаксна апроксимаціяuk
dc.subjectполіноміальні  моделіuk
dc.subjectмашинне навчанняuk
dc.subjectаномаліїuk
dc.subjectdouble descenten
dc.subjectL2 regularizationen
dc.subjectminimax approximationen
dc.subjectpolynomial modelsen
dc.subjectmachine learningen
dc.subjectanomaliesen
dc.titleДослідження феномену подвійного спуску та порівняння мінімаксної апроксимації з L2-регуляризацієюuk
dc.title.alternativeStudy of the double trigger phenomenon and comparison of minimax approximation with L2-regularizationen
dc.typeArticle, professional native edition
dc.typeArticle
dc.identifier.udc004.93
dc.relation.referencesГоловач, А. Б. Математичні основи моделювання складних систем. Київ: Наукова думка, 2018. – с. 286.uk
dc.relation.referencesН. В. Бурєннікова, О. В. Зелінська, І. М. Ушкаленко, Ю. Ю. Бурєнніков "Оптимізаційні методи та моделі" – Вінниця: ВНТУ, 2019. – 121 с.uk
dc.relation.referencesОгірко О. І., Галайко Н. В. "Теорія ймовірностей та математична статистика: навчальний посібник". – Львів: Львівський державний університет внутрішніх справ, 2017. – 292 с.uk
dc.relation.referencesBelkin, M., Hsu, D., Ma, S., & Mandal, S. Reconciling Modern Machine Learning and the Bias-Variance Trade-off. PNAS, 2019. – с. 23.en
dc.relation.referencesNg, A. Y. Feature Selection, L1 vs. L2 Regularization, and Rotational Invariance. Proceedings of the 21st International Conference on Machine Learning, 2004. – с. 8.en
dc.relation.referencesBoyd, S., & Vandenberghe, L. Convex Optimization. Cambridge University Press, 2004. – с. 732.en
dc.relation.referencesChen, T., & Guestrin, C. XGBoost: A Scalable Tree Boosting System. KDD, 2016. – с. 785–790.en
dc.relation.referencesBishop, C. M. Pattern Recognition and Machine Learning. Springer, 2006. – с. 738.en
dc.identifier.doihttps://doi.org/10.31649/1681-7893-2025-49-1-36-43


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію