| dc.contributor.author | Недашківський, Є. | uk |
| dc.date.accessioned | 2025-08-29T12:25:00Z | |
| dc.date.available | 2025-08-29T12:25:00Z | |
| dc.date.issued | 2025 | |
| dc.identifier.citation | | uk |
| dc.identifier.uri | https://ir.lib.vntu.edu.ua//handle/123456789/48940 | |
| dc.description.abstract | У статті розглядаються проблеми, пов'язані з використанням івриту у великих мовних моделях (LLM), зокрема обмежена кількість навчальних даних та нерівномірне розподілення моделювальної уваги у мультимовних архітектурах. Проаналізовано сучасні підходи до покращення підтримки малоресурсних мов. | uk |
| dc.description.abstract | The paper discusses the challenges of using Hebrew in large language models (LLMs), particularly the limited amount of training data and uneven distribution of modeling capacity in multilingual architectures. Modern approaches to improving low-resource language support are analyzed. | en |
| dc.language.iso | uk_UA | uk_UA |
| dc.publisher | ВНТУ | uk |
| dc.relation.ispartof | // Матеріали LIV Всеукраїнської науково-технічної конференції підрозділів ВНТУ, Вінниця, 24-27 березня 2025 р. | uk |
| dc.relation.uri | https://conferences.vntu.edu.ua/index.php/all-fbtegp/all-fbtegp-2025/paper/view/24329 | |
| dc.subject | великі мовні моделі | uk |
| dc.subject | іврит | uk |
| dc.subject | малоресурсні мови | uk |
| dc.subject | мультимовність | uk |
| dc.subject | нейронні мережі | uk |
| dc.subject | обробкаприродної мови | uk |
| dc.subject | large language models | uk |
| dc.subject | Hebrew | uk |
| dc.subject | low-resource languages | uk |
| dc.subject | multilinguality | uk |
| dc.subject | neural networks | uk |
| dc.subject | natural languageprocessing | uk |
| dc.title | Особливості використання івриту у великих мовних моделях: обмеженість даних та виклики мультимовності | uk |
| dc.type | Thesis | |
| dc.identifier.udc | 004.89 | |
| dc.relation.references | 2. Ethnologue: Languages of the World. 26- . Dallas, TX: SIL International, 2023. . 539. Mou C., Nguyen A., Shao Y. . CulturaX: Investigating Large-Scale Multilingual Data for LLMs [ ]. arXiv:2305.14556, 2023. : https://arxiv.org/abs/2305.14556 | |
| dc.relation.references | Shmidman S., Shmidman A., Koppel M. . Adapting LLMs to Hebrew: Unveiling DictaLM 2.0 [ ]. arXiv:2401.06230, 2024. : https://arxiv.org/abs/2401.06230 | |
| dc.relation.references | Brown T., Mann B., Ryder N. . Language Models are Few-Shot Learners [ ]. arXiv:2005.14165, 2020. : https://arxiv.org/abs/2005.14165 | |
| dc.relation.references | Touvron H., Lavril T., Izacard G. . LLaMA 2: Open Foundation and Fine-Tuned Chat Models. [ ]. arXiv:2307.09288, 2023. : https://arxiv.org/abs/2307.09288 | |
| dc.relation.references | Eyal M., Noga H., Aharoni R., Szpektor I., Tsarfaty R. Multilingual Sequence-to-Sequence Models for Hebrew NLP // Findings of the Association for Computational Linguistics: ACL 2023. 2023. . 77007708. | |
| dc.relation.references | Tsarfaty R., Seker A., Sadde S., Klein S. Whats Wrong with Hebrew NLP? And How to Make it Right [ ]. arXiv:1903.10682, 2019. : https://arxiv.org/abs/1903.10682 | |
| dc.relation.references | Wang Z., Lipton Z., Tsvetkov Y. On Negative Interference in Multilingual Models: Findings and A Meta-Learning Treatment [ ]. arXiv:2010.03017, 2020. : https://arxiv.org/abs/2010.03017 | |
| dc.relation.references | Conneau A., Lample G., Ranzato M. . Unsupervised Cross-lingual Representation Learning at Scale // Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. 2020. . 84408451. | |
| dc.relation.references | Pfeiffer J., Rckl A., Gurevych I., Cho K. AdapterFusion: Non-Destructive Task Composition for Transfer Learning [ ]. arXiv:2005.00247, 2020. : https://arxiv.org/abs/2005.00247 | |