Показати скорочену інформацію

dc.contributor.authorЖеглов, М. С.uk
dc.date.accessioned2025-08-13T10:00:38Z
dc.date.available2025-08-13T10:00:38Z
dc.date.issued2025
dc.identifier.citationuk
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/48425
dc.description.abstractаналіз потенційних наслідків таких атак, зокрема ризиків витоку конфіденційної інформації та спотворення відповідей. Запропоновано ефективні методи захисту, що спрямовані на зменшення вразливостей і підвищення безпеки інтелектуальних чат ̶ботів.uk
dc.description.abstractconsequences of such attacks are analyzed, in particular, the risks of leakage of confidential information and distortion of model responses. Effective protection methods are proposed, aimed at reducing vulnerabilities and increasing the security of LLM ̶oriented chatbots.en
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartof// Матеріали Всеукраїнської науково-практичної інтернет-конференції «Молодь в науці: дослідження, проблеми, перспективи (МН-2025)», 15-16 червня 2025 р.uk
dc.relation.urihttps://conferences.vntu.edu.ua/index.php/mn/mn2025/paper/view/25391
dc.subjectкібербезпекаuk
dc.subjectвеликі мовні моделіuk
dc.subjectатаки на LLMuk
dc.subjectчат ̶ботuk
dc.subjectгенеративний штучний інтелектuk
dc.subjectcybersecurityuk
dc.subjectlarge language models (LLM)uk
dc.subjectattacks on LLMuk
dc.subjectchatbotsuk
dc.subjectLLM protectionuk
dc.subjectartificialintelligence securityuk
dc.titleДо проблеми кіберзахисту llm-чат-ботівuk
dc.typeThesis
dc.identifier.udc004.056:004.85
dc.relation.referencesZHAO, Wayne Xin, et al. A survey of large language models. arXiv preprint arXiv:2303.18223, 2023, 1.2. . ., . . prompt injection . . , 24 . 2025 . , 2025. URL: https://conferences.vntu.edu.ua/index.php/all fitki/all fitki 2025/paper/view/24458/20255 ( : 28.05.2025). LLM01:2025 prompt injection OWASP top 10 for LLM & generative AI security. URL: https://genai.owasp.org/llmrisk/llm01 prompt injection/ (date of access: 23.03.2025). ., . : , // . : ' . 2023. 9. . 24. URL: https://science.lpnu.ua/sites/default/files/journal paper/2023/jan/29738/221029maket 9 24.pdf ( : 28.05.2025). . . . Kanban. 2024. . 26. URL: https://openarchive.nure.ua/server/api/core/bitstreams/c3d910fd d8a4 4cb7 9 e2c 5453ef9ef2d2/content ( : 28.05.2025). Kosinski M. Protect against prompt injection | IBM. URL: https://www.ibm.com/think/insights/prevent prompt injection (date of access: 23.03.2025).


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію