Показати скорочену інформацію

dc.contributor.advisorКолесницький О. К.uk
dc.contributor.authorНедашківський, Є. А.uk
dc.contributor.authorNedashkivskyi, Y.en
dc.date.accessioned2025-08-29T12:25:00Z
dc.date.available2025-08-29T12:25:00Z
dc.date.issued2025
dc.identifier.citationНедашківський Є. А. Особливості використання івриту у великих мовних моделях: обмеженість даних та виклики мультимовності // Матеріали LIV Всеукраїнської науково-технічної конференції підрозділів ВНТУ, Вінниця, 24-27 березня 2025 р. Електрон. текст. дані. 2025. URI: https://conferences.vntu.edu.ua/index.php/all-fbtegp/all-fbtegp-2025/paper/view/24329uk
dc.identifier.isbn978-617-8132-48-8
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/48940
dc.description.abstractУ статті розглядаються проблеми, пов'язані з використанням івриту у великих мовних моделях (LLM), зокрема обмежена кількість навчальних даних та нерівномірне розподілення моделювальної уваги у мультимовних архітектурах. Проаналізовано сучасні підходи до покращення підтримки малоресурсних мов.uk
dc.description.abstractThe paper discusses the challenges of using Hebrew in large language models (LLMs), particularly the limited amount of training data and uneven distribution of modeling capacity in multilingual architectures. Modern approaches to improving low-resource language support are analyzed.en
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofМатеріали LIV Всеукраїнської науково-технічної конференції підрозділів ВНТУ, Вінниця, 24-27 березня 2025 р.uk
dc.relation.urihttps://conferences.vntu.edu.ua/index.php/all-fbtegp/all-fbtegp-2025/paper/view/24329
dc.subjectвеликі мовні моделіuk
dc.subjectівритuk
dc.subjectмалоресурсні мовиuk
dc.subjectмультимовністьuk
dc.subjectнейронні мережіuk
dc.subjectобробка природної мовиuk
dc.subjectlarge language modelsen
dc.subjectHebrewen
dc.subjectlow-resource languagesen
dc.subjectmultilingualityen
dc.subjectneural networksen
dc.subjectnatural language processingen
dc.titleОсобливості використання івриту у великих мовних моделях: обмеженість даних та виклики мультимовностіuk
dc.typeThesis
dc.identifier.udc004.89
dc.relation.referencesEthnologue: Languages of the World. 26-е вид. Dallas, TX: SIL International, 2023. – С. 539.en
dc.relation.referencesMou C., Nguyen A., Shao Y. та ін. CulturaX: Investigating Large-Scale Multilingual Data for LLMs [Електронний ресурс]. – arXiv:2305.14556, 2023. – Режим доступу: https://arxiv.org/abs/2305.14556en
dc.relation.referencesShmidman S., Shmidman A., Koppel M. та ін. Adapting LLMs to Hebrew: Unveiling DictaLM 2.0 [Електронний ресурс]. – arXiv:2401.06230, 2024. – Режим доступу: https://arxiv.org/abs/2401.06230en
dc.relation.referencesBrown T., Mann B., Ryder N. та ін. Language Models are Few-Shot Learners [Електронний ресурс]. – arXiv:2005.14165, 2020. – Режим доступу: https://arxiv.org/abs/2005.14165en
dc.relation.referencesTouvron H., Lavril T., Izacard G. Та ін. LLaMA 2: Open Foundation and Fine-Tuned Chat Models. [Електронний ресурс]. – arXiv:2307.09288, 2023. – Режим доступу: https://arxiv.org/abs/2307.09288en
dc.relation.referencesEyal M., Noga H., Aharoni R., Szpektor I., Tsarfaty R. Multilingual Sequence-to-Sequence Models for Hebrew NLP // Findings of the Association for Computational Linguistics: ACL 2023. – 2023. – С. 7700–7708.en
dc.relation.referencesTsarfaty R., Seker A., Sadde S., Klein S. What’s Wrong with Hebrew NLP? And How to Make it Right [Електронний ресурс]. – arXiv:1903.10682, 2019. – Режим доступу: https://arxiv.org/abs/1903.10682en
dc.relation.referencesWang Z., Lipton Z., Tsvetkov Y. On Negative Interference in Multilingual Models: Findings and A Meta-Learning Treatment [Електронний ресурс]. – arXiv:2010.03017, 2020. – Режим доступу: https://arxiv.org/abs/2010.03017en
dc.relation.referencesConneau A., Lample G., Ranzato M. та ін. Unsupervised Cross-lingual Representation Learning at Scale // Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. – 2020. – С. 8440–8451.en
dc.relation.referencesPfeiffer J., Rücklé A., Gurevych I., Cho K. AdapterFusion: Non-Destructive Task Composition for Transfer Learning [Електронний ресурс]. – arXiv:2005.00247, 2020. – Режим доступу: https://arxiv.org/abs/2005.00247en


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію