dc.contributor.author | Клиш, В. М. | uk |
dc.contributor.author | Куперштейн, Л. М. | uk |
dc.date.accessioned | 2025-08-19T07:50:26Z | |
dc.date.available | 2025-08-19T07:50:26Z | |
dc.date.issued | 2025 | |
dc.identifier.citation | | uk |
dc.identifier.uri | https://ir.lib.vntu.edu.ua//handle/123456789/48606 | |
dc.description.abstract | типи: прямі та непрямі ін’єкції. Проаналізовано можливі наслідки таких атак, зокрема ризики витоку даних і спотворення вихідних даних моделі. Запропоновано ефективні заходи захисту, спрямовані на зменшення вразливостей та підвищення безпеки використання LLM. | uk |
dc.description.abstract | main types: direct and indirect injections. Possible consequences of such attacks are analysed, including the risks of data leakage and distortion of model output. Effective protection measures aimed at reducing vulnerabilities and increasing the security of LLM use are proposed | en |
dc.language.iso | uk_UA | uk_UA |
dc.publisher | ВНТУ | uk |
dc.relation.ispartof | // Матеріали LIV Всеукраїнської науково-технічної конференції підрозділів ВНТУ, Вінниця, 24-27 березня 2025 р. | uk |
dc.relation.uri | https://conferences.vntu.edu.ua/index.php/all-fitki/all-fitki-2025/paper/view/24458 | |
dc.subject | великі мовні моделі | uk |
dc.subject | prompt injection | uk |
dc.subject | атаки на ШІ | uk |
dc.subject | кібербезпека | uk |
dc.subject | big language models | uk |
dc.subject | prompt injection | uk |
dc.subject | AI attacks | uk |
dc.subject | cybersecurity | uk |
dc.title | Аналіз атак типу Prompt Injection на великі мовні моделі | uk |
dc.type | Thesis | |
dc.identifier.udc | 004.056 | |
dc.relation.references | ZHAO, Wayne Xin, et al. A survey of large language models. arXiv preprint arXiv:2303.18223, 2023, 1.2. | |
dc.relation.references | LLM01:2025 prompt injection - OWASP top 10 for LLM & generative AI security. URL: https://genai.owasp.org/llmrisk/llm01prompt-injection/ (date of access: 23.03.2025). | |
dc.relation.references | Franois Aubry. What Is Prompt Injection? Types of Attacks & Defenses - Artificial Intelligence. Datacamp. URL: https://www.datacamp.com/blog/prompt-injection-attack (date of access: 23.03.2025). | |
dc.relation.references | Monga A. LLM01: prompt injection explained with practical example: protecting your LLM from malicious input. Medium. URL: https://medium.com/@ajay.monga73/llm01-prompt-injection-explained-with-practical-example-protecting-your-llmfrom-malicious-input-96acee9a2712 (date of access: 23.03.2025). | |
dc.relation.references | Kosinski M. Protect against prompt injection | IBM. URL: https://www.ibm.com/think/insights/prevent-prompt-injection (date of access: 23.03.2025). | |