Показати скорочену інформацію

dc.contributor.authorЯровий, А. А.uk
dc.contributor.authorКудрявцев, Д. С.uk
dc.contributor.authorYarovyi, A. A.en
dc.contributor.authorKudriavtsev, D. S.en
dc.date.accessioned2025-06-24T11:04:04Z
dc.date.available2025-06-24T11:04:04Z
dc.date.issued2024
dc.identifier.citationЯровий А. А., Кудрявцев Д. С. Підхід до генерації тексту на основі мовної моделі BERT // Вісник Вінницького політехнічного інституту. 2024. № 6. С. 113–120.uk
dc.identifier.issn1997-9266
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/46721
dc.description.abstractThe application of the BERT language model for tasks of term search and generation in terminological knowledge bases (TKB) with optimization for intelligent chatbots is proposed. The architecture of the BERT model, its bidirectional attention mechanism, text processing algorithms, and the main stages of model training are described. The use of BERT for semantic search of terms and methods for adapting the model for text generation, considering the semantic value of each term, are considered. A comparative analysis of the BERT language model with models from the GPT series is carried out, highlighting the strengths and weaknesses of BERT in the context of search and generative tasks. The paper also thoroughly examines metrics for evaluating the quality of term search, such as Precision, Recall, F1-score, Mean Reciprocal Rank (MRR), Normalized Discounted Cumulative Gain (nDCG), and others, which allow for a comprehensive assessment of the effectiveness of term search and generation. Practical aspects of integrating BERT into knowledge management systems are discussed, and recommendations are provided for fine-tuning the model for specialized TKBs. Additionally, the ethical aspects of using language models are emphasized, particularly the risks of bias in term search and generation, as well as the importance of ensuring accuracy and objectivity in the generated results. The responsible use of BERT is discussed to avoid incorrect or harmful conclusions during the automatic processing of knowledge. Software was developed for testing the BERT language model, and training of the language model was tested on various datasets. The testing results demonstrated the high efficiency of using the BERT language model, considering optimizations for text generation tasks. Potential improvements to BERT for working with TKBs are discussed, including methods for fine-tuning the model on domainspecific data, using the multilingual version of BERT for processing multilingual knowledge bases, as well as optimization techniques for improving performance in resource-constrained environments. Approaches for testing and evaluating search effectiveness are proposed, including the use of expert evaluations and automatic metrics. The final part of the article outlines future research directions, including the integration of BERT with neural search systems, automatic generation of new terms, and the expansion of knowledge management systems’ functionality based on deep learning.en
dc.description.abstractЗапропоновано застосування мовної моделі BERT для задач пошуку і генерації термів у термінологічних базах знань (ТБЗ) з використанням оптимізації для інтелектуальних чат-ботів. Описується архітектура моделі BERT, механізм уваги, алгоритми обробки тексту та основні етапи навчання моделі. Розглянуто використання BERT для семантичного пошуку термів, а також методи адаптації моделі для генерації тексту з урахуванням семантичної цінності кожного терму. Виконано порівняльний аналіз мовної моделі BERT з моделями серії GPT, який продемонстрував сильні та слабкі сторони BERT у контексті пошукових і генеративних задач. У статті також детально розглянуто метрики оцінки якості пошуку термів, такі як Precision, Recall, F1-score, Mean Reciprocal Rank (MRR), Normalized Discounted Cumulative Gain (nDCG) та інші, що дозволяють комплексно оцінювати ефективність пошуку та генерації термів. Розглянуто практичні аспекти інтеграції BERT у системи управління знаннями та надано рекомендації щодо донавчання моделі для вузькоспеціалізованих ТБЗ. До того ж, зосереджено увагу на етичні аспекти використання мовних моделей, зокрема ризики виникнення упередженості (bias) у пошуку та генерації термів, а також важливість забезпечення точності й об`єктивності згенерованих результатів. Обговорюється відповідальне використання BERT для уникнення помилкових або шкідливих висновків під час автоматичної обробки знань. Здійснено розробку програмного забезпечення для тестування мовної моделі BERT. Виконано тестування навчання мовної моделі на різних наборах даних. Результатом тестування доведено високу ефективність використання мовної моделі BERT з урахуванням оптимізації для задачі генерації тексту. Зазначено можливі покращення BERT для роботи з ТБЗ, зокрема методи донавчання моделі на специфічних доменних даних, використання мультимовної версії BERT для обробки багатомовних баз знань, а також техніки оптимізації моделі для підвищення продуктивності в умовах обмежених обчислювальних ресурсів. Запропоновано підходи до тестування та оцінки ефективності пошуку, зокрема використання автоматичних метрик. У заключній частині статті окреслено подальші напрямки досліджень, зокрема інтеграцію BERT з нейронними пошуковими системами, автоматичну генерацію нових термів та розширення функціоналу систем управління знаннями на основі глибокого навчання.uk
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofВісник Вінницького політехнічного інституту. № 6 : 113-120.uk
dc.relation.urihttps://visnyk.vntu.edu.ua/index.php/visnyk/article/view/3140
dc.subjectBERTen
dc.subjectтермінологічні бази знаньuk
dc.subjectсемантичний пошукuk
dc.subjectмовні моделіuk
dc.subjectгенерація термівuk
dc.subjectterminological knowledge basesen
dc.subjectsemantic searchen
dc.subjectlanguage modelsen
dc.subjectterm generationen
dc.titleПідхід до генерації тексту на основі мовної моделі BERTuk
dc.title.alternativeMethod of Text Generation Based on the BERT LLMen
dc.typeArticle, professional native edition
dc.typeArticle
dc.identifier.udc004.8
dc.relation.references. Subakti, H. Murfi, and N. Hariadi, “The performance of BERT as data representation of text clustering,” J. Big Data, no. 9, 15, 2022. https://doi.org/10.1186/s40537-022-00564-9 .en
dc.relation.referencesW. Liu, et al., “K-BERT: Enabling Language Representation with Knowledge Graph,” in Proceedings of the AAAI Conference on Artificial Intelligence, no. 34 (03), 2020, pp. 2901-2908. https://doi.org/10.1609/aaai.v34i03.5681 .en
dc.relation.referencesS. Shen, et al., “Q-BERT: Hessian Based Ultra Low Precision Quantization of BERT,” in Proceedings of the AAAI Conference on Artificial Intelligence, 34(05), 2020, pp. 8815-8821. https://doi.org/10.1609/aaai.v34i05.6409 .en
dc.relation.referencesM. Pankiewicz, “Large Language Models (GPT) for automating feedback on programming assignments,” in 31st International Conference on Computers in Education (ICCE), vol. 13, 2023. https://doi.org/10.48550/arXiv.2307.00150en
dc.relation.referencesA. Moffat, “Computing Maximized Effectiveness Distance for Recall-Based Metrics,” in IEEE Transactions on Knowledge and Data Engineering, vol. 30, no. 1, pp. 198-203, 1 Jan. 2018. https://doi.org/10.1109/TKDE.2017.2754371 .en
dc.relation.referencesJ. Sun, et al., “Deep learning-based methods for natural hazard named entity recognition,” Sci Rep., no. 12, pp. 4598, 2022. https://doi.org/10.1038/s41598-022-08667-2.en
dc.relation.referencesA. Bello, S.-C. Ng, and M.-F. Leung, “A BERT Framework to Sentiment Analysis of Tweets,” Sensors, no. 23, pp. 506, 2023. https://doi.org/10.3390/s23010506 .en
dc.relation.referencesY. Chen, X. Kou, J. Bai, and Y. Tong, “Improving BERT With Self-Supervised Attention, ” in IEEE Access, vol. 9, pp. 144129-144139, 2021. https://doi.org/10.1109/ACCESS.2021.3122273 .en
dc.relation.referencesM. H. Syed, S-T. Chung, “MenuNER: Domain-Adapted BERT Based NER Approach for a Domain with Limited Dataset and Its Application to Food Menu Domain,” Applied Sciences, no. 11(13), pp. 6007, 2021. https://doi.org/10.3390/app11136007 .en
dc.relation.referencesA. Wang, and K. Cho, BERT has a Mouth, and It Must Speak: BERT as a Markov Random Field Language Model, 2019. https://doi.org/10.48550/arXiv.1902.04094 .en
dc.relation.referencesDr. A. Shaji George, A. S. Hovan George, Dr. T. Baskarand A. S. Gabrio Martin, “Revolutionizing Business Communication: Exploring the Potential of GPT-4 in Corporate Settings,” Partners Universal International Research Journal (PUIRJ), vol. 2, no. 1, pp. 149-157, Mar. 2023, https://doi.org/10.5281/zenodo.7775900 . ISSN: 2583-5602en
dc.relation.referencesS. Jacobs, and S. Jaschke, “Leveraging Lecture Content for Improved Feedback: Explorations with GPT-4 and Retrieval Augmented Generation, ” in 36th International Conference on Software Engineering Education and Training (CSEE&T), Würzburg, Germany, 2024, pp. 1-5, https://doi.org/10.1109/CSEET62301.2024.10663001 .en
dc.relation.referencesGabriel A., Kensho Derived Wikimedia Dataset, 2020. [Electronic resource]. Available: https://www.kaggle.com/datasets/kenshoresearch/kensho-derived-wikimedia-data. Accessed on September 1, 2024.en
dc.relation.referencesB. D. Lund, and T. Wang, “Chatting about ChatGPT: how may AI and GPT impact academia and libraries?” Library Hi Tech News, vol. 40, no. 3, pp. 26-29, 2023. https://doi.org/10.1108/LHTN-01-2023-0009 .en
dc.identifier.doihttps://doi.org/10.31649/1997-9266-2024-177-6-113-120
dc.identifier.orcidhttps://orcid.org/0000-0002-6668-2425
dc.identifier.orcidhttps://orcid.org/0000-0001-7116-7869


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію