dc.contributor.author | Жеглов, М. С. | uk |
dc.date.accessioned | 2025-08-13T10:00:38Z | |
dc.date.available | 2025-08-13T10:00:38Z | |
dc.date.issued | 2025 | |
dc.identifier.citation | | uk |
dc.identifier.uri | https://ir.lib.vntu.edu.ua//handle/123456789/48425 | |
dc.description.abstract | аналіз потенційних наслідків таких атак, зокрема ризиків витоку конфіденційної інформації та спотворення відповідей. Запропоновано ефективні методи захисту, що спрямовані на зменшення вразливостей і підвищення безпеки інтелектуальних чат ̶ботів. | uk |
dc.description.abstract | consequences of such attacks are analyzed, in particular, the risks of leakage of confidential information and distortion of model responses. Effective protection methods are proposed, aimed at reducing vulnerabilities and increasing the security of LLM ̶oriented chatbots. | en |
dc.language.iso | uk_UA | uk_UA |
dc.publisher | ВНТУ | uk |
dc.relation.ispartof | // Матеріали Всеукраїнської науково-практичної інтернет-конференції «Молодь в науці: дослідження, проблеми, перспективи (МН-2025)», 15-16 червня 2025 р. | uk |
dc.relation.uri | https://conferences.vntu.edu.ua/index.php/mn/mn2025/paper/view/25391 | |
dc.subject | кібербезпека | uk |
dc.subject | великі мовні моделі | uk |
dc.subject | атаки на LLM | uk |
dc.subject | чат ̶бот | uk |
dc.subject | генеративний штучний інтелект | uk |
dc.subject | cybersecurity | uk |
dc.subject | large language models (LLM) | uk |
dc.subject | attacks on LLM | uk |
dc.subject | chatbots | uk |
dc.subject | LLM protection | uk |
dc.subject | artificialintelligence security | uk |
dc.title | До проблеми кіберзахисту llm-чат-ботів | uk |
dc.type | Thesis | |
dc.identifier.udc | 004.056:004.85 | |
dc.relation.references | ZHAO, Wayne Xin, et al. A survey of large language models. arXiv preprint arXiv:2303.18223, 2023, 1.2. . ., . . prompt injection . . , 24 . 2025 . , 2025. URL: https://conferences.vntu.edu.ua/index.php/all fitki/all fitki 2025/paper/view/24458/20255 ( : 28.05.2025). LLM01:2025 prompt injection OWASP top 10 for LLM & generative AI security. URL: https://genai.owasp.org/llmrisk/llm01 prompt injection/ (date of access: 23.03.2025). ., . : , // . : ' . 2023. 9. . 24. URL: https://science.lpnu.ua/sites/default/files/journal paper/2023/jan/29738/221029maket 9 24.pdf ( : 28.05.2025). . . . Kanban. 2024. . 26. URL: https://openarchive.nure.ua/server/api/core/bitstreams/c3d910fd d8a4 4cb7 9 e2c 5453ef9ef2d2/content ( : 28.05.2025). Kosinski M. Protect against prompt injection | IBM. URL: https://www.ibm.com/think/insights/prevent prompt injection (date of access: 23.03.2025). | |