Показати скорочену інформацію

dc.contributor.authorБілецький, Б. С.uk
dc.date.accessioned2024-04-30T07:21:28Z
dc.date.available2024-04-30T07:21:28Z
dc.date.issued2024
dc.identifier.citationБілецький Б. С. Адаптація методу дистиляції знань природною мовою для класифікації темпоральних фраз. Матеріали LІII науково-технічної конференції підрозділів ВНТУ, Вінниця, 20-22 березня 2024 р. Електрон. текст. дані. 2024. URI: https://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2024/paper/view/20092.uk
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/41829
dc.description.abstractДослідження представляє вдосконалення процесів автоматичного розпізнавання та класифікації темпоральних фраз у природномовних текстах за допомогою методу дистиляції знань. Підкреслюючи зростаючу потребу в автоматичному розумінні темпоральної інформації, дослідження зосереджено на створенні масштабного датасету з 1 078 862 записами та навчанні рекурентної нейромережі Bi-LSTM. Результати показали високу точність моделі, зокрема у розрізненні темпоральних фраз, відкриваючи нові перспективи для аналізу текстової інформації в різноманітних областях.uk
dc.description.abstractThe research presents an improvement of automatic recognition and classification of temporal phrases in natural language texts using a knowledge distillation method. Emphasizing the growing need for automatic understanding of temporal information, the study focuses on creating a large-scale dataset with 1,078,862 records and training a recurrent neural network Bi-LSTM. The results showed high accuracy of the model, in particular in distinguishing temporal phrases, opening up new perspectives for analyzing textual information in various fields.en
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofМатеріали LІII науково-технічної конференції підрозділів ВНТУ, Вінниця, 20-22 березня 2024 р.uk
dc.relation.urihttps://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2024/paper/view/20092
dc.subjectінтелектуальна технологіяuk
dc.subjectтемпоральні фразиuk
dc.subjectдистиляція знаньuk
dc.subjectкласифікація текстуuk
dc.subjectприродномовні текстиuk
dc.subjectавтоматичне розпізнаванняuk
dc.subjectнавчання нейромережіuk
dc.subjectаналіз данихuk
dc.subjectобробка природної мовиuk
dc.subjectштучний інтелектuk
dc.subjectмашинне навчанняuk
dc.subjectintelligent technologyen
dc.subjecttemporal phrasesen
dc.subjectknowledge distillationen
dc.subjectBi-LSTMen
dc.subjecttext classificationen
dc.subjectnaturallanguage textsen
dc.subjectautomatic recognitionen
dc.subjectChatGPTen
dc.subjectneural network trainingen
dc.subjectdata analysisen
dc.subjectnatural language processingen
dc.subjectartificial intelligenceen
dc.subjectmachine learningen
dc.titleАдаптація методу дистиляції знань природною мовою для класифікації темпоральних фразuk
dc.typeThesis
dc.identifier.udc004.932
dc.relation.referencesAnderson, M., & Gómez-Rodríguez, C. (2020). Distilling Neural Networks for Greener and Faster Dependency Parsing. ArXiv, abs/2006.00844. https://doi.org/10.18653/v1/2020.iwpt-1.2.
dc.relation.referencesHe, H., Shi, X., Mueller, J., Zha, S., Li, M., & Karypis, G. (2021). Distiller: A Systematic Study of Model Distillation Methods in Natural Language Processing. ArXiv, abs/2109.11105. https://doi.org/10.18653/v1/2021.sustainlp-1.13.en
dc.relation.referencesSanh, V., Debut, L., Chaumond, J., & Wolf, T. (2019). DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter. ArXiv, abs/1910.01108.en
dc.relation.referencesSun, S., Cheng, Y., Gan, Z., & Liu, J. (2019). Patient Knowledge Distillation for BERT Model Compression. , 4322-4331. https://doi.org/10.18653/v1/D19-1441.en
dc.relation.referencesYuan, F., Shou, L., Pei, J., Lin, W., Gong, M., Fu, Y., & Jiang, D. (2020). Reinforced Multi-Teacher Selection for Knowledge Distillation., 14284-14291. https://doi.org/10.1609/aaai.v35i16.17680.en
dc.relation.referencesMukherjee, S., & Awadallah, A. (2020). XtremeDistil: Multi-stage Distillation for Massive Multilingual Models., 2221- 2234. https://doi.org/10.18653/v1/2020.acl-main.202.en
dc.relation.referencesJafari, A., Rezagholizadeh, M., & Ghodsi, A. (2023). Improved knowledge distillation by utilizing backward pass knowledge in neural networks. ArXiv, abs/2301.12006. https://doi.org/10.48550/arXiv.2301.12006.en
dc.relation.referencesLin, Y., Chen, K., & Kao, H. (2023). LAD: Layer-Wise Adaptive Distillation for BERT Model Compression. Sensors (Basel, Switzerland), 23. https://doi.org/10.3390/s23031483.en


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію