| dc.contributor.author | Клиш, В. М. | uk |
| dc.contributor.author | Куперштейн, Л. М. | uk |
| dc.contributor.author | Kupershtein, L. M. | en |
| dc.date.accessioned | 2025-08-19T07:50:26Z | |
| dc.date.available | 2025-08-19T07:50:26Z | |
| dc.date.issued | 2025 | |
| dc.identifier.citation | Клиш В. М., Куперштейн Л. М. Аналіз атак типу prompt Injection на великі мовні моделі // Матеріали LIV Всеукраїнської науково-технічної конференції підрозділів ВНТУ, Вінниця, 24-27 березня 2025 р. Електрон. текст. дані. 2025. URI: https://conferences.vntu.edu.ua/index.php/all-fitki/all-fitki-2025/paper/view/24458. | uk |
| dc.identifier.isbn | 978-617-8132-48-8 | |
| dc.identifier.uri | https://ir.lib.vntu.edu.ua//handle/123456789/48606 | |
| dc.description.abstract | У роботі розглянуто проблему атак prompt injection на великі мовні моделі, зокрема їхні основні
типи: прямі та непрямі ін’єкції. Проаналізовано можливі наслідки таких атак, зокрема ризики витоку даних і
спотворення вихідних даних моделі. Запропоновано ефективні заходи захисту, спрямовані на зменшення вразливостей та підвищення безпеки використання LLM. | uk |
| dc.description.abstract | The paper considers the problem of prompt injection attacks on large language models, in particular their
main types: direct and indirect injections. Possible consequences of such attacks are analysed, including the risks of data
leakage and distortion of model output. Effective protection measures aimed at reducing vulnerabilities and increasing
the security of LLM use are proposed. | en |
| dc.language.iso | uk_UA | uk_UA |
| dc.publisher | ВНТУ | uk |
| dc.relation.ispartof | Матеріали LIV Всеукраїнської науково-технічної конференції підрозділів ВНТУ, Вінниця, 24-27 березня 2025 р. | uk |
| dc.relation.uri | https://conferences.vntu.edu.ua/index.php/all-fitki/all-fitki-2025/paper/view/24458 | |
| dc.subject | великі мовні моделі | uk |
| dc.subject | атаки на ШІ | uk |
| dc.subject | кібербезпека | uk |
| dc.subject | big language models | en |
| dc.subject | prompt injection | en |
| dc.subject | AI attacks | en |
| dc.subject | cybersecurity | en |
| dc.title | Аналіз атак типу prompt Injection на великі мовні моделі | uk |
| dc.type | Thesis | |
| dc.identifier.udc | 004.056 | |
| dc.relation.references | ZHAO, Wayne Xin, et al. A survey of large language models. arXiv preprint arXiv:2303.18223, 2023, 1.2. | en |
| dc.relation.references | LLM01:2025 prompt injection - OWASP top 10 for LLM & generative AI security. URL: https://genai.owasp.org/llmrisk/llm01prompt-injection/ (date of access: 23.03.2025). | en |
| dc.relation.references | Franois Aubry. What Is Prompt Injection? Types of Attacks & Defenses - Artificial Intelligence. Datacamp. URL: https://www.datacamp.com/blog/prompt-injection-attack (date of access: 23.03.2025). | en |
| dc.relation.references | Monga A. LLM01: prompt injection explained with practical example: protecting your LLM from malicious input. Medium. URL: https://medium.com/@ajay.monga73/llm01-prompt-injection-explained-with-practical-example-protecting-your-llmfrom-malicious-input-96acee9a2712 (date of access: 23.03.2025). | en |
| dc.relation.references | Kosinski M. Protect against prompt injection | IBM. URL: https://www.ibm.com/think/insights/prevent-prompt-injection (date of access: 23.03.2025). | en |