Показати скорочену інформацію

dc.contributor.authorЯровий, А. А.uk
dc.contributor.authorКудрявцев, Д. С.uk
dc.contributor.authorYarovyi, A. A.uk
dc.contributor.authorKudriavtsev, D. S.uk
dc.date.accessioned2025-06-24T11:04:04Z
dc.date.available2025-06-24T11:04:04Z
dc.date.issued2024uk
dc.identifier.citationЯровий А. А., Кудрявцев Д. С. Підхід до генерації тексту на основі мовної моделі BERT // Вісник Вінницького політехнічного інституту. 2024. № 6. С. 113–120.uk
dc.identifier.issn1997-9266uk
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/46721
dc.description.abstractThe application of the BERT language model for tasks of term search and generation in terminological knowledge bases (TKB) with optimization for intelligent chatbots is proposed. The architecture of the BERT model, its bidirectional attention mechanism, text processing algorithms, and the main stages of model training are described. The use of BERT for semantic search of terms and methods for adapting the model for text generation, considering the semantic value of each term, are considered. A comparative analysis of the BERT language model with models from the GPT series is carried out, highlighting the strengths and weaknesses of BERT in the context of search and generative tasks. The paper also thoroughly examines metrics for evaluating the quality of term search, such as Precision, Recall, F1-score, Mean Reciprocal Rank (MRR), Normalized Discounted Cumulative Gain (nDCG), and others, which allow for a comprehensive assessment of the effectiveness of term search and generation. Practical aspects of integrating BERT into knowledge management systems are discussed, and recommendations are provided for fine-tuning the model for specialized TKBs. Additionally, the ethical aspects of using language models are emphasized, particularly the risks of bias in term search and generation, as well as the importance of ensuring accuracy and objectivity in the generated results. The responsible use of BERT is discussed to avoid incorrect or harmful conclusions during the automatic processing of knowledge. Software was developed for testing the BERT language model, and training of the language model was tested on various datasets. The testing results demonstrated the high efficiency of using the BERT language model, considering optimizations for text generation tasks. Potential improvements to BERT for working with TKBs are discussed, including methods for fine-tuning the model on domainspecific data, using the multilingual version of BERT for processing multilingual knowledge bases, as well as optimization techniques for improving performance in resource-constrained environments. Approaches for testing and evaluating search effectiveness are proposed, including the use of expert evaluations and automatic metrics. The final part of the article outlines future research directions, including the integration of BERT with neural search systems, automatic generation of new terms, and the expansion of knowledge management systems’ functionality based on deep learning.en_US
dc.description.abstractЗапропоновано застосування мовної моделі BERT для задач пошуку і генерації термів у термінологічних базах знань (ТБЗ) з використанням оптимізації для інтелектуальних чат-ботів. Описується архітектура моделі BERT, механізм уваги, алгоритми обробки тексту та основні етапи навчання моделі. Розглянуто використання BERT для семантичного пошуку термів, а також методи адаптації моделі для генерації тексту з урахуванням семантичної цінності кожного терму. Виконано порівняльний аналіз мовної моделі BERT з моделями серії GPT, який продемонстрував сильні та слабкі сторони BERT у контексті пошукових і генеративних задач. У статті також детально розглянуто метрики оцінки якості пошуку термів, такі як Precision, Recall, F1-score, Mean Reciprocal Rank (MRR), Normalized Discounted Cumulative Gain (nDCG) та інші, що дозволяють комплексно оцінювати ефективність пошуку та генерації термів. Розглянуто практичні аспекти інтеграції BERT у системи управління знаннями та надано рекомендації щодо донавчання моделі для вузькоспеціалізованих ТБЗ. До того ж, зосереджено увагу на етичні аспекти використання мовних моделей, зокрема ризики виникнення упередженості (bias) у пошуку та генерації термів, а також важливість забезпечення точності й об`єктивності згенерованих результатів. Обговорюється відповідальне використання BERT для уникнення помилкових або шкідливих висновків під час автоматичної обробки знань. Здійснено розробку програмного забезпечення для тестування мовної моделі BERT. Виконано тестування навчання мовної моделі на різних наборах даних. Результатом тестування доведено високу ефективність використання мовної моделі BERT з урахуванням оптимізації для задачі генерації тексту. Зазначено можливі покращення BERT для роботи з ТБЗ, зокрема методи донавчання моделі на специфічних доменних даних, використання мультимовної версії BERT для обробки багатомовних баз знань, а також техніки оптимізації моделі для підвищення продуктивності в умовах обмежених обчислювальних ресурсів. Запропоновано підходи до тестування та оцінки ефективності пошуку, зокрема використання автоматичних метрик. У заключній частині статті окреслено подальші напрямки досліджень, зокрема інтеграцію BERT з нейронними пошуковими системами, автоматичну генерацію нових термів та розширення функціоналу систем управління знаннями на основі глибокого навчання.uk_UA
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofВісник Вінницького політехнічного інституту. № 6 : 113-120.uk
dc.subjectBERTuk
dc.subjectтермінологічні бази знаньuk
dc.subjectсемантичний пошукuk
dc.subjectмовні моделіuk
dc.subjectгенерація термівuk
dc.subjectterminological knowledge basesuk
dc.subjectsemantic searchuk
dc.subjectlanguage modelsuk
dc.subjectterm generationuk
dc.titleПідхід до генерації тексту на основі мовної моделі BERTuk
dc.title.alternativeMethod of Text Generation Based on the BERT LLMen_US
dc.typeArticle, professional native edition
dc.identifier.udc004.8uk
dc.relation.referenceshttps://visnyk.vntu.edu.ua/index.php/visnyk/article/view/3140uk
dc.identifier.doihttps://doi.org/10.31649/1997-9266-2024-177-6-113-120uk
dc.identifier.orcidhttps://orcid.org/0000-0002-6668-2425uk
dc.identifier.orcidhttps://orcid.org/0000-0001-7116-7869uk


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію