Показати скорочену інформацію

dc.contributor.authorКулик, Л. Р.uk
dc.contributor.authorМокін, О. Б.uk
dc.contributor.authorKulyk, L. Ren
dc.contributor.authorMokin, O. B.en
dc.date.accessioned2026-04-14T08:23:37Z
dc.date.available2026-04-14T08:23:37Z
dc.date.issued2025
dc.identifier.citationКулик Л. Р., Мокін О. Б. Масштабування прогнозування відео за допомогою просторово-часових патчів // Вісник Вінницького політехнічного інституту. 2025. № 5. С. 129-139. URI: https://visnyk.vntu.edu.ua/index.php/visnyk/article/view/3346.uk
dc.identifier.issn1997-9274
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/51136
dc.description.abstractThe article presents a new architecture for video data processing, the Vision Byte Latent Transformer (V-BLT), which adapts the principles of successful byte-level language models to the visual modality. Unlike standard approaches that use fixed-size patching, which are computationally inefficient due to the uniform resource allocation regardless of visual content complexity, V-BLT operates directly on the video byte stream. This allows for avoiding information loss associated with prior tokenization and enhances processing flexibility. The key contributions include the concept of spatiotemporal latent patches,the implementation of N-dimensional Rotary Positional Embeddings to preserve data coherence in the flattened byte stream, and a multi-level transformer architecture for hierarchical processing. To validate the hypothesis and test the model, a new synthetic dataset with rotating 2D and 3D shapes was developed for a controlled evaluation of the model’s spatiotemporal reasoning capabilities. It is experimentally demonstrated that V-BLT effectively predicts future frames, achieving high scores on MSE, SSIM, and PSNR metrics comparing to ViViT and UNet3D with better computational efficiency. The developed architecture according to the design has the ability to generate per-pixel entropy maps that visualize prediction uncertainty and correlate with dynamically complex regions of the scene. This paves the way for the implementation of dynamic, con-tent-dependent, on-the-fly allocation of computational resources, representing a promising direction for creating more effi-cient and scalable foundation models for video analytics.en
dc.description.abstractЗапропоновано нову архітектуру для обробки відеоданих, Vision Byte Latent Transformer (V-BLT), яка адаптує принципи успішних байт-рівневих мовних моделей до зорової модальності. На відміну від стандартних підходів, що використовують пакування фіксованого розміру (patching), які є обчислювально неефективними через рівномірний розподіл ресурсів незалежно від складності візуального контенту, V-BLT працює безпосередньо з потоком байтів відео. Це дозволяє уникнути втрати інформації, пов’язаної з попередньою токенізацією, та підвищити гнучкість обробки. Ключовими внесками роботи є розробка концепції просторово-часових латентних патчів, впровадження N-вимірних ротаційних позиційних вкладень для збереження когерентності даних у розгорнутому потоці байтів, та застосування багаторівневої трансформерної архітектури для ієрархічної обробки даних. Для валідації гіпотези та тестування моделі розроблено новий синтетичний набір даних з 2D та 3D фігурами, що обертаються, який дозволяє проводити контрольовану оцінку здатності моделі до просторово-часового мислення. Експериментально продемонстровано, що V-BLT ефективно прогнозує майбутні кадри, досягаючи високих показників за метриками MSE, SSIM та PSNR в порівнянні з ViViT та UNet3D, при цьому демонструючи вищу ефективність розрахунків. Розроблена архітектура згідно з дизайном має можливість генерувати піксельні карти ентропії, які візуалізують невизначеність прогнозу та корелюють з динамічно складними регіонами сцени. Це відкриває шлях до реалізації динамічного, залежного від контенту, розподілу обчислювальних ресурсів «на ходу», що є перспективним напрямком для створення ефективніших та масштабованих фундаментних моделей для відеоаналітики.uk
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofВісник Вінницького політехнічного інституту. № 5 : 129-139.uk
dc.relation.urihttps://visnyk.vntu.edu.ua/index.php/visnyk/article/view/3346
dc.subjectмашинне навчанняuk
dc.subjectнейронні мережіuk
dc.subjectобробка природної мовиuk
dc.subjectтрансформериuk
dc.subjectкомп’ютерний зірuk
dc.subjectзгорткова нейронна мережаuk
dc.subjectваріаційний автоенкодерuk
dc.subjectсинтетичні даніuk
dc.subjectоптимізаціяuk
dc.subjectштучні нейронні мережіuk
dc.subjectmachine learningen
dc.subjectneural networksen
dc.subjectnatural language processing (NLP)en
dc.subjecttransformersen
dc.subjectcomputer vision (CV)en
dc.subjectconvolutional neural networks (CNN)en
dc.subjectvariational autoencoder (VAE)en
dc.subjectsynthetic dataen
dc.subjectoptimizationen
dc.subjectartificial neutral networksen
dc.titleМасштабування прогнозування відео за допомогою просторово-часових патчівuk
dc.title.alternativeScaling Video Prediction with Spatio-Temporal Patchesen
dc.typeArticle, professional native edition
dc.typeArticle
dc.identifier.udc004.054:[004.032.26+004.85]
dc.relation.referencesA. Arnab, et al., “ViViT: A Video Vision Transformer,” in ArXiv e-prints, 2021. [Online]. Available: https://arxiv.org/abs/2103.15691 . Accessed: September 26, 2025.en
dc.relation.referencesA. Dosovitskiy, et al., “An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale,” in ArXiv e-prints, 2020. [Online]. Available: https://arxiv.org/abs/2010.11929 . Accessed: September 26, 2025.en
dc.relation.referencesZ. Liu, et al., “Video Swin Transformer,” in ArXiv e-prints, 2022. [Online]. Available: https://arxiv.org/abs/2106.13230 .en
dc.relation.referencesA. Pagnoni, R. et al., “Byte Latent Transformer: Patches Scale Better than Tokens,” in ArXiv e-prints, 2024. [Online]. Available: https://arxiv.org/abs/2412.09871 . Accessed: September 26, 2025.en
dc.relation.referencesL. Xue, A. Barua, et al., “ByT5: Towards a Token-Free Future with Pre-trained Byte-to-Byte Models,” ArXiv e-prints, 2021. [Online]. Available: https://arxiv.org/abs/2105.13626 . Accessed: September 26, 2025.en
dc.relation.referencesЛ. Р. Кулик, і О. Б. Мокін, «Створення синтетичного набору даних для оцінювання архітектур нейромережевих моделей,» в Матеріали LIV науково-технічної конференції підрозділів ВНТУ, Вінниця, 24-27 березня 2025 р.uk
dc.relation.referencesG. Aleksandrowicz, and G. Barequet, “Counting polycubes without the dimensionality curse,” Discrete Mathematics, vol. 309, no. 13, pp. 4576-4583, 2009. https://doi.org/10.1016/j.disc.2009.02.023 . Accessed: September 26, 2025.en
dc.relation.referencesD. Tran, et al., “A Closer Look at Spatiotemporal Convolutions for Action Recognition,” in ArXiv e-prints, 2018. [Online]. Available: https://arxiv.org/abs/1711.11248 . Accessed: September 26, 2025.en
dc.relation.referencesW. Yan, et al., “VideoGPT: Video Generation using VQ-VAE and Transformers,” in ArXiv e-prints, 2021. [Online]. Available: https://arxiv.org/abs/2104.10157 . Accessed: September 26, 2025en
dc.relation.referencesJ. Ho, et al., “Video Diffusion Models,” in АrXiv e-prints, 2022. [Online]. Available: https://arxiv.org/abs/2204.03458 . Accessed: September 26, 2025.en
dc.relation.referencesA. Blattmann, et al., “Align your Latents: High-Resolution Video Synthesis with Latent Diffusion Models,” in ArXiv eprints, 2023. [Online]. Available: https://arxiv.org/abs/2304.08818 . Accessed: September 26, 2025.en
dc.relation.referencesJ. Su, et al., “RoFormer: Enhanced Transformer with Rotary Position Embedding,” in arXiv e-prints, 2021. [Online]. Available: https://arxiv.org/abs/2104.09864 . Accessed: September 26, 2025.en
dc.relation.referencesA. F. Bobick, and J. W. Davis, “The recognition of human movement using temporal templates,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 23, no. 3, pp. 257-267, 2001.en
dc.relation.referencesPython Software Foundation, Python Language Reference, version 3.12. [Online]. Available: https://www.python.org . Accessed: September 26, 2025.en
dc.relation.referencesC. Sullivan, and B. E. A. Larson, PyVista: 3D plotting and mesh analysis through a streamlined interface for the Visualization Toolkit (VTK). [Online]. Available: https://pyvista.org . Accessed: September 26, 2025.en
dc.relation.referencesSimple Shape Dataset Toolbox GitHub. [Online]. Available: https://github.com/leo27heady/simple-shape-datasettoolbox. Accessed: September 26, 2025.en
dc.relation.referencesA. Vaswani, et al., “Attention Is All You Need,” in ArXiv e-prints, 2017. [Online]. Available: https://arxiv.org/abs/1706.03762 . Accessed: September 26, 2025.en
dc.relation.referencesI. Loshchilov, and F. Hutter, “Decoupled Weight Decay Regularization,” in ArXiv e-prints, 2017. [Online]. Available: https://arxiv.org/abs/1711.05101 . Accessed: September 26, 2025en
dc.relation.referencesI. Goodfellow, Y. Bengio, and A. Courville, Deep Learning. MIT Press, 2016.en
dc.relation.referencesA. Paszke, et al., “PyTorch: An Imperative Style, High-Performance Deep Learning Library,” in Advances in Neural Information Processing Systems 32, 2019, pp. 8024-8035.en
dc.relation.referencesVision Byte Latent Transformer GitHub. [Online]. Available: https://github.com/leo27heady/visionBLT . Accessed: September 26, 2025en
dc.relation.referencesW. Kay, et al., “The Kinetics Human Action Video Dataset,” in ArXiv e-prints, 2017. [Online]. Available: https://arxiv.org/abs/1705.06950 . Accessed: September 26, 2025.en
dc.relation.referencesK. Soomro, A. R. Zamir, and M. Shah, “UCF101: A Dataset of 101 Human Actions Classes From Videos in The Wild,” in ArXiv e-prints, 2012. [Online]. Available: https://arxiv.org/abs/1212.0402 . Accessed: September 26, 2025.en
dc.relation.referencesTan C, et al., “OpenSTL: A Comprehensive Benchmark of Spatio-Temporal Predictive Learning,” in arXiv e-prints, 2022. [Online]. Available: https://arxiv.org/abs/2306.11249 . Accessed: September 26, 2025.en
dc.relation.referencesRope-Nd GitHub. [Online]. Available: https://github.com/limefax/rope-nd . Accessed: September 26, 2025.en
dc.relation.referencesOzgun Cicek, et al., “3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation,” in ArXiv e-prints, 2016. [Online]. Available: https://arxiv.org/abs/1606.06650 . Accessed: September 26, 2025.en
dc.relation.referencesM. Havrylovych, and V. Danylov, “Research on hybrid transformer-based autoencoders for user biometric verification,” System Research and Information Technologies, no. 3, pp. 42-53, 2023. [Online]. Available: https://doi.org/10.20535/SRIT.2308- 8893.2023.3.03 . Accessed: September 26, 2025.en
dc.relation.referencesVasyl Lytvyn, et al., “Detection of Similarity Between Images Based on Contrastive Language-Image Pre-Training Neural Network,” Machine Learning Workshop at CoLInS, 2024. [Online]. Available: https://doi.org/10.31110/COLINS/2024-1/008 . Accessed: September 26, 2025.en
dc.identifier.doihttps://doi.org/10.31649/1997-9266-2025-182-5-129-139


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію