Показати скорочену інформацію

dc.contributor.authorКудрик, О. В.uk
dc.contributor.authorБісікало, О. В.uk
dc.contributor.authorЗдітовецький, Ю. С.uk
dc.contributor.authorKudryk, О.en
dc.contributor.authorBisikalo, О.en
dc.contributor.authorZditovetskiy, Yu.en
dc.date.accessioned2026-04-06T11:13:51Z
dc.date.available2026-04-06T11:13:51Z
dc.date.issued2024
dc.identifier.citationКудрик О. В., Бісікало О. В., Здітовецький Ю. С. Методи тонкого налаштування штучного інтелекту // Вісник Вінницького політехнічного інституту. 2024. № 4. С. 139-146. URI: https://visnyk.vntu.edu.ua/index.php/visnyk/article/view/3079.uk
dc.identifier.issn1997-9266
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/51093
dc.description.abstractApproaches to fine-tuning of artificial intelligence based on two proposed methods are considered. For this purpose , a review of the main methods of retraining artificial intelligence was carried out, their advantages and disadvantages were determined. The proposed methods have their own characteristics, each of them is suitable for different types of tasks. The "Step-by-Step" method is based on multiplying the information entered into the AI verification model and consolidating this information at each stage of training. Using this approach, it becomes possible to detect errors at the early stages and provide additional information to the model, which allows the artificial intelligence to learn the material better. In its turn, the "All at once" method simultaneously introduces a large amount of information to the AI model at the initial stage, after which the verification of the fixed information begins by placing questions. This approach can be effective for tasks that require rapid learning and need complex comprehension of large amounts of information. Each of the methods has its advantages and disadvantages, the effectiveness of each of them may vary depending on the specific context of application. The Step-by-Step method allows the AI to learn the details better, but may require more time and resources. The “All at once” method allows to achieve results faster, but it can lead to a superficial understanding of the material and increase the number of errors. In this work, a schematic block of each of the two methods was developed, a comparative analysis of the effectiveness of these methods was carried out using the example of fine-tuning the ChatGPT model. An experimental approbation of the AI training process was carried out based on each of the methods, due to which a comparative assessment of the effectiveness of the results of fine-tuning was performed and appropriate conclusions were drawn. The results of the study can be useful for developers and researchers working in the field of artificial intelligence and can help to use a better method of retraining for specific tasks. Therefore, modified methods of fine-tuning of artificial intelligence have been studied, which allow using a smaller amount of resources and obtaining high accuracy and efficiency of work for specific tasks.en
dc.description.abstractРозглянуто підходи до тонкого налаштування штучного інтелекту на основі двох запропонованих методів. З цією метою проведено огляд основних методів донавчання штучного інтелекту, визначено їхні переваги та недоліки. Запропоновані методи мають свої особливості, кожний з них підходить для різних типів завдань. Метод «Крок за кроком» базується на поступовому внесенні інформації до моделі ШІ та перевірці засвоєння цієї інформації на кожному етапі навчання. Використовуючи цей підхід, стає можливим виявляти помилки на ранніх стадіях та надавати додаткову інформацію до моделі, що дозволяє штучному інтелекту краще засвоїти матеріал. У свою чергу, метод «Все одразу» одночасно вносить великий обсяг інформації до моделі ШІ на початковому етапі, після чого розпочинається перевірка засвоєння інформації шляхом задавання запитань. Цей підхід може бути ефективним для завдань, що потребують швидкого навчання та вимагають комплексного розуміння великих обсягів інформації. Кожен з методів має свої переваги та недоліки, ефективність кожного з них може варіюватися в залежності від конкретного контексту застосування. Метод «Крок за кроком» дозволяє штучному інтелекту краще засвоювати деталі, але може вимагати більше часу та ресурсів. Метод «Все одразу» дозволяє швидше досягати результатів, проте може спричиняти поверхневе розуміння матеріалу та збільшення кількості помилок. Розроблено блок-схеми кожного з двох методів, проведено порівняльний аналіз ефективності цих методів на прикладі тонкого налаштування моделі ChatGPT. Проведено експериментальну апробацію процесу донавчання ШІ на основі кожного з методів, завдяки чому отримано порівняльну оцінку ефективності результатів тонкого налаштування та дійшли висновків. Результати дослідження можуть бути корисними для розробників та дослідників, які працюють у сфері штучного інтелекту, та можуть допомогти обрати кращий метод донавчання для конкретних завдань. Отже, досліджено модифіковані методи тонкого налаштування штучного інтелекту, які забезпечують використання меншої кількості ресурсів та отримання високої точності та ефективності роботи для конкретних завдань.uk
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofВісник Вінницького політехнічного інституту. № 4 : 139-146.uk
dc.relation.urihttps://visnyk.vntu.edu.ua/index.php/visnyk/article/view/3079
dc.subjectметоди навчанняuk
dc.subjectтонке налаштуванняuk
dc.subjectштучний інтелектuk
dc.subjectмашинне навчанняuk
dc.subjectмоделіuk
dc.subjectаналіз данихuk
dc.subjectChatGPTen
dc.subjectlearning methodsen
dc.subjectfine-tuningen
dc.subjectartificial intelligenceen
dc.subjectmachine learningen
dc.subjectmodelsen
dc.subjectdata analysisen
dc.titleМетоди тонкого налаштування штучного інтелектуuk
dc.title.alternativeMethods of Fine-Tuning of Artificial Intelligenceen
dc.typeArticle, professional native edition
dc.typeArticle
dc.identifier.udc004.9
dc.relation.referencesМ. Мар’єнко, і В. Коваленко «Штучний інтелект та відкрита наука в освіті,» Фізико-математична освіта, № 1, с. 48-53, 2023.uk
dc.relation.referencesN. Lore et al., “Large model strategic thinking, small model efficiency: transferring theory of mind in large language models,” arXiv preprint arXiv:2408.05241, 2024.en
dc.relation.referencesJ. Cheonsu, “Fine-tuning and utilization methods of domain-specific llms,” arXiv preprint arXiv:2401.02981. 2024.en
dc.relation.referencesR. Mathav et al., “Fine tuning llms for enterprise: practical guidelines and recommendations,” arXiv preprint arXiv: 2404.10779, 2024.en
dc.relation.referencesH. Sun, “Supervised fine-tuning as inverse reinforcement learning,” arXiv preprint arXiv:2403.12017, 2024.en
dc.relation.referencesH. Mentzingen et al., “Textual similarity for legal precedents discovery: Assessing the performance of machine learning techniques in an administrative court,” International Journal of Information Management Data Insights, no. 4(2), p.100247, 2024.en
dc.relation.referencesY. Xie et al., “Active Finetuning: Exploiting Annotation Budget in the Pretraining-Finetuning Paradigm,” Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 23715-23724, 2023.en
dc.relation.referencesFine-tuning – OpenAI platform. [Electronic resource]. Available: https://platform.openai.com/docs/guides/fine-tuning .en
dc.relation.referencesAPI Reference – OpenAI API. [Electronic resource]. Available: https://platform.openai.com/docs/api-reference .en
dc.relation.referencesOracle APEX Documentation. [Electronic resource]. Available: https://docs.oracle.com/en/database/oracle/apex/index.html .en
dc.relation.referencesНМТ онлайн 2024 року з хімії – демоваріант, сайт ЗНО. Освіта.UA. [Електронний ресурс]. Режим доступу: https://zno.osvita.ua/chemistry/574/ .uk
dc.relation.referencesНМТ онлайн 2024 року з української мови – демоваріант, сайт ЗНО. Освіта.UA. [Електронний ресурс]. Режим доступу: https://zno.osvita.ua/ukrainian/568/ .uk
dc.relation.referencesЗНО онлайн 2021 року з географії – основна сесія, сайт ЗНО. Освіта.UA. [Електронний ресурс]. Режим доступу: https://zno.osvita.ua/geography/476/ .uk
dc.identifier.doihttps://doi.org/10.31649/1997-9266-2024-175-4-139-146


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію