Показати скорочену інформацію

dc.contributor.authorКлиш, В. М.uk
dc.contributor.authorКуперштейн, Л. М.uk
dc.contributor.authorKupershtein, L. M.en
dc.date.accessioned2025-08-19T07:50:26Z
dc.date.available2025-08-19T07:50:26Z
dc.date.issued2025
dc.identifier.citationКлиш В. М., Куперштейн Л. М. Аналіз атак типу prompt Injection на великі мовні моделі // Матеріали LIV Всеукраїнської науково-технічної конференції підрозділів ВНТУ, Вінниця, 24-27 березня 2025 р. Електрон. текст. дані. 2025. URI: https://conferences.vntu.edu.ua/index.php/all-fitki/all-fitki-2025/paper/view/24458.uk
dc.identifier.isbn978-617-8132-48-8
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/48606
dc.description.abstractУ роботі розглянуто проблему атак prompt injection на великі мовні моделі, зокрема їхні основні типи: прямі та непрямі ін’єкції. Проаналізовано можливі наслідки таких атак, зокрема ризики витоку даних і спотворення вихідних даних моделі. Запропоновано ефективні заходи захисту, спрямовані на зменшення вразливостей та підвищення безпеки використання LLM.uk
dc.description.abstractThe paper considers the problem of prompt injection attacks on large language models, in particular their main types: direct and indirect injections. Possible consequences of such attacks are analysed, including the risks of data leakage and distortion of model output. Effective protection measures aimed at reducing vulnerabilities and increasing the security of LLM use are proposed.en
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofМатеріали LIV Всеукраїнської науково-технічної конференції підрозділів ВНТУ, Вінниця, 24-27 березня 2025 р.uk
dc.relation.urihttps://conferences.vntu.edu.ua/index.php/all-fitki/all-fitki-2025/paper/view/24458
dc.subjectвеликі мовні моделіuk
dc.subjectатаки на ШІuk
dc.subjectкібербезпекаuk
dc.subjectbig language modelsen
dc.subjectprompt injectionen
dc.subjectAI attacksen
dc.subjectcybersecurityen
dc.titleАналіз атак типу prompt Injection на великі мовні моделіuk
dc.typeThesis
dc.identifier.udc004.056
dc.relation.referencesZHAO, Wayne Xin, et al. A survey of large language models. arXiv preprint arXiv:2303.18223, 2023, 1.2.en
dc.relation.referencesLLM01:2025 prompt injection - OWASP top 10 for LLM & generative AI security. URL: https://genai.owasp.org/llmrisk/llm01prompt-injection/ (date of access: 23.03.2025).en
dc.relation.referencesFranois Aubry. What Is Prompt Injection? Types of Attacks & Defenses - Artificial Intelligence. Datacamp. URL: https://www.datacamp.com/blog/prompt-injection-attack (date of access: 23.03.2025).en
dc.relation.referencesMonga A. LLM01: prompt injection explained with practical example: protecting your LLM from malicious input. Medium. URL: https://medium.com/@ajay.monga73/llm01-prompt-injection-explained-with-practical-example-protecting-your-llmfrom-malicious-input-96acee9a2712 (date of access: 23.03.2025).en
dc.relation.referencesKosinski M. Protect against prompt injection | IBM. URL: https://www.ibm.com/think/insights/prevent-prompt-injection (date of access: 23.03.2025).en


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію