Показати скорочену інформацію

dc.contributor.authorНедашківський, Є.uk
dc.date.accessioned2025-08-29T12:25:00Z
dc.date.available2025-08-29T12:25:00Z
dc.date.issued2025
dc.identifier.citationuk
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/48940
dc.description.abstractУ статті розглядаються проблеми, пов'язані з використанням івриту у великих мовних моделях (LLM), зокрема обмежена кількість навчальних даних та нерівномірне розподілення моделювальної уваги у мультимовних архітектурах. Проаналізовано сучасні підходи до покращення підтримки малоресурсних мов.uk
dc.description.abstractThe paper discusses the challenges of using Hebrew in large language models (LLMs), particularly the limited amount of training data and uneven distribution of modeling capacity in multilingual architectures. Modern approaches to improving low-resource language support are analyzed.en
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartof// Матеріали LIV Всеукраїнської науково-технічної конференції підрозділів ВНТУ, Вінниця, 24-27 березня 2025 р.uk
dc.relation.urihttps://conferences.vntu.edu.ua/index.php/all-fbtegp/all-fbtegp-2025/paper/view/24329
dc.subjectвеликі мовні моделіuk
dc.subjectівритuk
dc.subjectмалоресурсні мовиuk
dc.subjectмультимовністьuk
dc.subjectнейронні мережіuk
dc.subjectобробкаприродної мовиuk
dc.subjectlarge language modelsuk
dc.subjectHebrewuk
dc.subjectlow-resource languagesuk
dc.subjectmultilingualityuk
dc.subjectneural networksuk
dc.subjectnatural languageprocessinguk
dc.titleОсобливості використання івриту у великих мовних моделях: обмеженість даних та виклики мультимовностіuk
dc.typeThesis
dc.identifier.udc004.89
dc.relation.references2. Ethnologue: Languages of the World. 26- . Dallas, TX: SIL International, 2023. . 539. Mou C., Nguyen A., Shao Y. . CulturaX: Investigating Large-Scale Multilingual Data for LLMs [ ]. arXiv:2305.14556, 2023. : https://arxiv.org/abs/2305.14556
dc.relation.referencesShmidman S., Shmidman A., Koppel M. . Adapting LLMs to Hebrew: Unveiling DictaLM 2.0 [ ]. arXiv:2401.06230, 2024. : https://arxiv.org/abs/2401.06230
dc.relation.referencesBrown T., Mann B., Ryder N. . Language Models are Few-Shot Learners [ ]. arXiv:2005.14165, 2020. : https://arxiv.org/abs/2005.14165
dc.relation.referencesTouvron H., Lavril T., Izacard G. . LLaMA 2: Open Foundation and Fine-Tuned Chat Models. [ ]. arXiv:2307.09288, 2023. : https://arxiv.org/abs/2307.09288
dc.relation.referencesEyal M., Noga H., Aharoni R., Szpektor I., Tsarfaty R. Multilingual Sequence-to-Sequence Models for Hebrew NLP // Findings of the Association for Computational Linguistics: ACL 2023. 2023. . 77007708.
dc.relation.referencesTsarfaty R., Seker A., Sadde S., Klein S. Whats Wrong with Hebrew NLP? And How to Make it Right [ ]. arXiv:1903.10682, 2019. : https://arxiv.org/abs/1903.10682
dc.relation.referencesWang Z., Lipton Z., Tsvetkov Y. On Negative Interference in Multilingual Models: Findings and A Meta-Learning Treatment [ ]. arXiv:2010.03017, 2020. : https://arxiv.org/abs/2010.03017
dc.relation.referencesConneau A., Lample G., Ranzato M. . Unsupervised Cross-lingual Representation Learning at Scale // Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. 2020. . 84408451.
dc.relation.referencesPfeiffer J., Rckl A., Gurevych I., Cho K. AdapterFusion: Non-Destructive Task Composition for Transfer Learning [ ]. arXiv:2005.00247, 2020. : https://arxiv.org/abs/2005.00247


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію