Show simple item record

dc.contributor.authorКлиш, В. М.uk
dc.contributor.authorКуперштейн, Л. М.uk
dc.date.accessioned2025-08-19T07:50:26Z
dc.date.available2025-08-19T07:50:26Z
dc.date.issued2025
dc.identifier.citationuk
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/48606
dc.description.abstractтипи: прямі та непрямі ін’єкції. Проаналізовано можливі наслідки таких атак, зокрема ризики витоку даних і спотворення вихідних даних моделі. Запропоновано ефективні заходи захисту, спрямовані на зменшення вразливостей та підвищення безпеки використання LLM.uk
dc.description.abstractmain types: direct and indirect injections. Possible consequences of such attacks are analysed, including the risks of data leakage and distortion of model output. Effective protection measures aimed at reducing vulnerabilities and increasing the security of LLM use are proposeden
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartof// Матеріали LIV Всеукраїнської науково-технічної конференції підрозділів ВНТУ, Вінниця, 24-27 березня 2025 р.uk
dc.relation.urihttps://conferences.vntu.edu.ua/index.php/all-fitki/all-fitki-2025/paper/view/24458
dc.subjectвеликі мовні моделіuk
dc.subjectprompt injectionuk
dc.subjectатаки на ШІuk
dc.subjectкібербезпекаuk
dc.subjectbig language modelsuk
dc.subjectprompt injectionuk
dc.subjectAI attacksuk
dc.subjectcybersecurityuk
dc.titleАналіз атак типу Prompt Injection на великі мовні моделіuk
dc.typeThesis
dc.identifier.udc004.056
dc.relation.referencesZHAO, Wayne Xin, et al. A survey of large language models. arXiv preprint arXiv:2303.18223, 2023, 1.2.
dc.relation.referencesLLM01:2025 prompt injection - OWASP top 10 for LLM & generative AI security. URL: https://genai.owasp.org/llmrisk/llm01prompt-injection/ (date of access: 23.03.2025).
dc.relation.referencesFranois Aubry. What Is Prompt Injection? Types of Attacks & Defenses - Artificial Intelligence. Datacamp. URL: https://www.datacamp.com/blog/prompt-injection-attack (date of access: 23.03.2025).
dc.relation.referencesMonga A. LLM01: prompt injection explained with practical example: protecting your LLM from malicious input. Medium. URL: https://medium.com/@ajay.monga73/llm01-prompt-injection-explained-with-practical-example-protecting-your-llmfrom-malicious-input-96acee9a2712 (date of access: 23.03.2025).
dc.relation.referencesKosinski M. Protect against prompt injection | IBM. URL: https://www.ibm.com/think/insights/prevent-prompt-injection (date of access: 23.03.2025).


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record