Показати скорочену інформацію

dc.contributor.authorЖеглов, М. С.uk
dc.contributor.authorКуперштейн, Л. М.uk
dc.contributor.authorKupershtein, L. M.en
dc.date.accessioned2025-08-13T10:00:38Z
dc.date.available2025-08-13T10:00:38Z
dc.date.issued2025
dc.identifier.citationЖеглов М. С., Куперштейн Л. М. До проблеми кіберзахисту LLM-чат-ботів // Матеріали Всеукраїнської науково-практичної інтернет-конференції «Молодь в науці: дослідження, проблеми, перспективи (МН-2025)», Вінниця, 15-16 червня 2025 р. URI: https://conferences.vntu.edu.ua/index.php/mn/mn2025/paper/view/25391.uk
dc.identifier.isbn978-617-8163-57-0
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/48425
dc.description.abstractУ роботі розглянуто проблему різноманітних атак на LLM ̶орієнтовані чат ̶боти. Проведено аналіз потенційних наслідків таких атак, зокрема ризиків витоку конфіденційної інформації та спотворення відповідей. Запропоновано ефективні методи захисту, що спрямовані на зменшення вразливостей і підвищення безпеки інтелектуальних чат ̶ботів.uk
dc.description.abstractThe paper considers the problem of various attacks on chatbots built on the basis of LLM. The potential consequences of such attacks are analyzed, in particular, the risks of leakage of confidential information and distortion of model responses. Effective protection methods are proposed, aimed at reducing vulnerabilities and increasing the security of LLM ̶oriented chatbots.en
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofМатеріали Всеукраїнської науково-практичної інтернет-конференції «Молодь в науці: дослідження, проблеми, перспективи (МН-2025)», Вінниця, 15-16 червня 2025 р.uk
dc.relation.urihttps://conferences.vntu.edu.ua/index.php/mn/mn2025/paper/view/25391
dc.subjectкібербезпекаuk
dc.subjectвеликі мовні моделіuk
dc.subjectатаки на LLMuk
dc.subjectчат ̶ботuk
dc.subjectгенеративний штучний інтелектuk
dc.subjectcybersecurityen
dc.subjectlarge language models (LLM)en
dc.subjectattacks on LLMen
dc.subjectchatbotsen
dc.subjectLLM protectionen
dc.subjectartificial intelligence securityen
dc.titleДо проблеми кіберзахисту LLM-чат-ботівuk
dc.typeThesis
dc.identifier.udc004.056:004.85
dc.relation.referencesZHAO, Wayne Xin, et al. A survey of large language models. arXiv preprint arXiv:2303.18223, 2023, 1.2.en
dc.relation.referencesКлиш В. М., Куперштейн Л. М. Аналіз атак типу prompt injection на великі мовні моделі. м. Вінниця, 24 берез. 2025 р. Вінниця, 2025. URL: https://conferences.vntu.edu.ua/index.php/all ̶fitki/all ̶fitki ̶2025/paper/view/24458/20255 (дата звернення: 28.05.2025).uk
dc.relation.referencesLLM01:2025 prompt injection ̶ OWASP top 10 for LLM & generative AI security. URL: https://genai.owasp.org/llmrisk/llm01 ̶prompt ̶injection/ (date of access: 23.03.2025).en
dc.relation.referencesНеретін О., Харченко В. Забезпечення кібербезпеки систем штучного інтелекту: аналіз вразливостей, атак і контрзаходів // Науковий вісник НУ «Львівська політехніка». Серія: Комп'ютерні науки та інформаційні технології. ̶2023. ̶№9. ̶С. 24. URL: https://science.lpnu.ua/sites/default/files/journal ̶paper/2023/jan/29738/221029maket ̶9 ̶24.pdf (дата звернення: 28.05.2025).uk
dc.relation.referencesСтолярова О. К. Кваліфікаційна робота. Дослідження мовних моделей в задачах розробки програмного забезпечення інформаційних систем з використанням методології Kanban. ̶ 2024. ̶ С. 26. URL: https://openarchive.nure.ua/server/api/core/bitstreams/c3d910fd ̶d8a4 ̶4cb7 ̶9e2c ̶5453ef9ef2d2/content (дата звернення: 28.05.2025).uk
dc.relation.referencesKosinski M. Protect against prompt injection | IBM. URL: https://www.ibm.com/think/insights/prevent ̶prompt ̶injection (date of access: 23.03.2025).en


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію