Показати скорочену інформацію

dc.contributor.authorЛевіцький, С. М.uk
dc.contributor.authorМокін, В. Б.uk
dc.date.accessioned2025-09-12T10:06:40Z
dc.date.available2025-09-12T10:06:40Z
dc.date.issued2025
dc.identifier.citationuk
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/49249
dc.description.abstractРозглянуто найновіші підходи до оцінювання та підвищення стійкості великих мовних моделей до дезінформації та маніпулятивних атак, таких як дрейф знань, ін'єкція промптів та інші. Узагальнено сучасні виклики, які стоять перед дослідниками мовних моделей та підприємцями, які інтегрують моделі в свої програмні продукти. Запропоновано практичні рекомендації до підвищення стійкості мовних моделей, що має особливе значення для їхнього безпечного застосування в критично важливих галузях. Виявлено, що великі мовні моделі потребують всебічного тестування, тому також запропоновано удосконалення бенчмарку авторськогоuk
dc.description.abstractThe article discusses the latest approaches to evaluating and enhancing the robustness of large language models against misinformation and manipulative attacks, such as knowledge drift, prompt injection, and others. It summarizes contemporary challenges faced by language model researchers and entrepreneurs integrating these models into their software products. Practical recommendations are proposed to improve the robustness of language models, which is particularly important for their safe application in critical industries. It was found that large language models require comprehensive testing, therefore, an improvement of the author’s MST benchmark with an expansion of the evaluation criteria was also proposed.en
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartof// Матеріали LIV науково-технічної конференції підрозділів ВНТУ, Вінниця, 24-27 березня 2025 р.uk
dc.relation.urihttps://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2025/paper/view/24338
dc.subjectLLMuk
dc.subjectеталонний тестuk
dc.subjectдезінформаціяuk
dc.subjectманіпуляція фактамиuk
dc.subjectманіпуляція промптамиuk
dc.subjectінженерія промптівuk
dc.subjectLLMuk
dc.subjectbenchmarkuk
dc.subjectmisinformationuk
dc.subjectfactual manipulationuk
dc.subjectprompt manipulationuk
dc.subjectprompt engineeringuk
dc.titleАналіз еталонних тестів стійкості великих мовних моделей до дезінформації та різних видів маніпуляційuk
dc.typeThesis
dc.identifier.udc004.9+556
dc.relation.referencesStephanie Lin, Jacob Hilton, Owain Evans. TruthfulQA: Measuring How Models Mimic Human Falsehoods, arXiv preprint, ArXiv:2109.07958
dc.relation.referencesWei J. et al. Measuring short-form factuality in large language models, arXiv preprint, arXiv:2411.04368, Nov 2024.
dc.relation.referencesJia-Yu Yao et al. LLM Lies: Hallucinations are not Bugs, but Features as Adversarial Examples, arXiv preprint, arXiv:2310.01469
dc.relation.referencesAlina Fastowski, Gjergji Kasneci. Understanding Knowledge Drift in LLMs through Misinformation. arXiv preprint, arXiv:2409.07085v1


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію