<?xml version="1.0" encoding="UTF-8"?><feed xmlns="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
<title>Інформаційні технології та комп'ютерна інженерія. 2024. № 3</title>
<link href="https://ir.lib.vntu.edu.ua//handle/123456789/46562" rel="alternate"/>
<subtitle/>
<id>https://ir.lib.vntu.edu.ua//handle/123456789/46562</id>
<updated>2026-04-08T15:34:29Z</updated>
<dc:date>2026-04-08T15:34:29Z</dc:date>
<entry>
<title>Method of multi-purpose term search in the terminology database</title>
<link href="https://ir.lib.vntu.edu.ua//handle/123456789/46722" rel="alternate"/>
<author>
<name>Yarovyi, A. А.</name>
</author>
<author>
<name>Kudriavtsev, D. S.</name>
</author>
<author>
<name>Яровий, А. А.</name>
</author>
<author>
<name>Кудрявцев, Д. С.</name>
</author>
<id>https://ir.lib.vntu.edu.ua//handle/123456789/46722</id>
<updated>2025-07-14T10:42:22Z</updated>
<published>2024-01-01T00:00:00Z</published>
<summary type="text">Method of multi-purpose term search in the terminology database
Yarovyi, A. А.; Kudriavtsev, D. S.; Яровий, А. А.; Кудрявцев, Д. С.
This study investigated the method of multi-purpose term search in a terminological knowledge base, which is based on semantic analysis and the use of modern natural language processing methods. The study considered the key factors affecting the search efficiency, including the structure of data organisation, data format and parameters, and sample size. Particular focus was placed on the semantic similarity between terms, which allows increasing the search accuracy by using vector representations and the Louvain algorithm. The study also described the use of cosine similarity to quantify the similarity between terms. Furthermore, the search process was optimised by filtering relevant databases and dynamically identifying relevant terms using the modularity metric. A comparative analysis of existing methods for searching for terms by the identified factors was conducted. The study noted the advantages and disadvantages of using the Louvain algorithm in comparison with the search algorithms in graph data structures. A series of experiments were conducted on data samples, including dictionary, graph, and network data structures. The study analysed the use of logistic constraints for searching in network data structures and noted the possibility of optimisation due to uniform and dynamic data distribution. Experimental results showed the effectiveness of using a combination of the Louvain algorithm and network data structures in terminological knowledge bases. Examples of the scope of application of this method in information technologies for searching and processing text data were given. A software architecture scheme with the use of a software interface and the possibility of integration for web applications in the form of a package or library was developed. The proposed approach demonstrates effectiveness in the context of intelligent decision support systems and automated chatbots, which makes it particularly useful for industries  access to accurate professional terms is critical. A basic version of the software interface for using this method in information technologies for searching and analysing data for use in search engines was developed; У цьому дослідженні досліджувався метод багатоцільового пошуку термінів у термінологічній базі знань, який базується на семантичному аналізі та використанні сучасних методів обробки природної мови. У дослідженні розглянуто ключові фактори, що впливають на ефективність пошуку, включаючи структуру організації даних, формат та параметри даних, а також розмір вибірки. Особливу увагу було приділено семантичній подібності між термінами, що дозволяє підвищити точність пошуку за допомогою векторних представлень та алгоритму Лувена. У дослідженні також описано використання косинусної подібності для кількісної оцінки подібності між термінами. Крім того, процес пошуку було оптимізовано шляхом фільтрації релевантних баз даних та динамічної ідентифікації релевантних термінів за допомогою метрики модульності. Було проведено порівняльний аналіз існуючих методів пошуку термінів за виявленими факторами. У дослідженні зазначено переваги та недоліки використання алгоритму Лувена порівняно з алгоритмами пошуку в графових структурах даних. Було проведено серію експериментів на вибірках даних, включаючи словникові, графові та мережеві структури даних. У дослідженні проаналізовано використання логістичних обмежень для пошуку в мережевих структурах даних та зазначено можливість оптимізації завдяки рівномірному та динамічному розподілу даних. Експериментальні результати показали ефективність використання комбінації алгоритму Лувена та мережевих структур даних у термінологічних базах знань. Наведено приклади сфери застосування цього методу в інформаційних технологіях для пошуку та обробки текстових даних. Розроблено схему архітектури програмного забезпечення з використанням програмного інтерфейсу та можливістю інтеграції для веб-додатків у вигляді пакета або бібліотеки. Запропонований підхід демонструє ефективність у контексті інтелектуальних систем підтримки рішень та автоматизованих чат-ботів, що робить його особливо корисним для галузей, де доступ до точних професійних термінів є критичним. Розроблено базову версію програмного інтерфейсу для використання цього методу в інформаційних технологіях для пошуку та аналізу даних для використання в пошукових системах.
</summary>
<dc:date>2024-01-01T00:00:00Z</dc:date>
</entry>
<entry>
<title>Neural network architecture for real-time QR code recognition</title>
<link href="https://ir.lib.vntu.edu.ua//handle/123456789/46223" rel="alternate"/>
<author>
<name>Serediuk, Hlib</name>
</author>
<author>
<name>Garmash, Vladimir</name>
</author>
<author>
<name>Гармаш, В. В.</name>
</author>
<author>
<name>Сердюк, Г.</name>
</author>
<id>https://ir.lib.vntu.edu.ua//handle/123456789/46223</id>
<updated>2025-05-22T13:50:48Z</updated>
<published>2024-01-01T00:00:00Z</published>
<summary type="text">Neural network architecture for real-time QR code recognition
Serediuk, Hlib; Garmash, Vladimir; Гармаш, В. В.; Сердюк, Г.
The study investigated modern neural network architectures for efficient real-time recognition of QR codes, which is critical for the development of mobile applications and industrial control systems. The study analysed the features of using light convolutional neural networks optimised for operation on mobile devices with limited computing resources. A modified architecture was proposed that strikes a balance between speed and accuracy when processing a video stream, achieving a recognition rate of 30 frames per second on standard mobile processors. A multi-stage decision-making mechanism based on the Early Stopping Mechanism (ESM) has been developed to optimise image processing. An adaptive filtering method using a median filter and morphological reconstruction was implemented, which substantially improved the quality of input data. The proposed architecture included a specialised preprocessing module and a system of residual-and-excitation blocks to improve recognition efficiency. Experimental studies demonstrated a 12-15% increase in the system`s real-time performance compared to the baseline models when processing a video stream. The system successfully recognised QR codes in poor lighting conditions and non-standard tilt angles with an accuracy of over 92%. A 27% reduction in computational complexity was achieved while maintaining high recognition accuracy. The developed method efficiently processes images with geometric distortions even in conditions of limited resources. The study developed the theoretical foundations of optimising convolutional neural networks for computer vision tasks, offering new approaches to balancing recognition efficiency and accuracy. The practical significance of the study was confirmed by the possibility of direct integration of the developed system into mobile applications and industrial quality control systems, while the proposed optimisation methods can be adapted to a wide range of computer vision tasks on mobile platforms; У статті досліджуються сучасні архітектури нейронних мереж для ефективного розпізнавання QR-кодів у реальному часі, що є критично важливим для розвитку мобільних застосунків та промислових систем контролю. Проаналізовано особливості застосування легких згорткових нейронних мереж, оптимізованих для роботи на мобільних пристроях з обмеженими обчислювальними ресурсами. Запропоновано модифіковану архітектуру, що забезпечує баланс між швидкодією та точністю при обробці відеопотоку, досягаючи частоти розпізнавання 30 кадрів на секунду на стандартних мобільних процесорах. Розроблено багатоетапний механізм прийняття рішень на основі ESM (Early Stopping Mechanism), який оптимізує процес обробки зображень. Впроваджено адаптивний метод фільтрації з використанням медіанного фільтру та морфологічної реконструкції, що суттєво підвищує якість вхідних даних. Запропонована архітектура містить спеціалізований модуль попередньої обробки та систему residual-and-excitation блоків для підвищення ефективності розпізнавання. Експериментальні дослідження демонструють підвищення ефективності роботи системи в реальному часі на 12–15 % порівняно з базовими моделями при обробці відеопотоку. Система успішно розпізнає QR-коди при складному освітленні та нестандартних кутах нахилу з точністю понад 92 %. Досягнуто зменшення обчислювальної складності на 27 % при збереженні високої точності розпізнавання. Розроблений метод ефективно обробляє зображення з геометричними спотвореннями навіть в умовах обмежених ресурсів. Дослідження розвиває теоретичні засади оптимізації згорткових нейронних мереж для задач комп’ютерного зору, пропонуючи нові підходи до балансування ефективності та точності розпізнавання. Практична значущість роботи підтверджується можливістю безпосередньої інтеграції розробленої системи в мобільні додатки та промислові системи контролю якості, а запропоновані методи оптимізації можуть бути адаптовані для широкого спектру задач комп’ютерного зору на мобільних платформах
</summary>
<dc:date>2024-01-01T00:00:00Z</dc:date>
</entry>
<entry>
<title>Optimising fuzzy hash function parameters for  ensuring compliance with Open Data Regulations</title>
<link href="https://ir.lib.vntu.edu.ua//handle/123456789/44531" rel="alternate"/>
<author>
<name>Maidanevych, L.</name>
</author>
<author>
<name>Kondratenko, N.</name>
</author>
<author>
<name>Kazmirevskyi, V.</name>
</author>
<author>
<name>Майданевич, Л. О.</name>
</author>
<author>
<name>Кондратенко, Н. Р.</name>
</author>
<author>
<name>Казміревський, В. В.</name>
</author>
<id>https://ir.lib.vntu.edu.ua//handle/123456789/44531</id>
<updated>2025-07-11T07:37:12Z</updated>
<published>2024-01-01T00:00:00Z</published>
<summary type="text">Optimising fuzzy hash function parameters for  ensuring compliance with Open Data Regulations
Maidanevych, L.; Kondratenko, N.; Kazmirevskyi, V.; Майданевич, Л. О.; Кондратенко, Н. Р.; Казміревський, В. В.
The aim of this study was to investigate the parameters of the hash function to enhance the efficiency and&#13;
accuracy of detecting similarities in text fragments across various web resources when monitoring compliance with the&#13;
requirements of the Regulation on Open Data on official government websites. The research focused on assessing three&#13;
key parameters of the hash function: block size, prime number base, and modulus. To achieve this, a series of experiments&#13;
was conducted, employing different combinations of these parameters to generate hash values for text data. The results&#13;
demonstrated which parameter combinations provide the best balance between accuracy, completeness, F-measure,&#13;
and execution time. The study showed that specific parameter configurations enable a significant improvement in&#13;
algorithm accuracy while minimising computational costs, which is particularly important for real-time data analysis.&#13;
It is established that optimising the parameters of the hash function reduces the occurrence of false positives and false&#13;
negatives, which are common issues in similarity detection. In particular, selecting optimal values for each parameter&#13;
significantly enhances the accuracy and completeness of the analysis, leading to more precise text fragment comparisons&#13;
and reduced execution time. This optimisation makes the fuzzy hashing algorithm well-suited for use in automated&#13;
systems that monitor government websites for compliance with open data regulations. Furthermore, the study found that&#13;
parameter optimisation decreases the number of duplicate records, which is especially relevant for ensuring that open&#13;
data adheres to legislative requirements. The conclusions drawn from this research can be applied to the development of&#13;
software tools designed to efficiently identify deficiencies and improve transparency and legal compliance. Additionally,&#13;
the findings can contribute to further optimisation of fuzzy hash function algorithms, thereby advancing data monitoring&#13;
technologies for regulatory compliance. This study enhances the development of web resource monitoring technologies&#13;
by demonstrating how the careful selection of fuzzy hash function parameters can substantially improve the efficiency&#13;
and reliability of open data analysis; Метою роботи було дослідження параметрів геш-функції для підвищення ефективності та точності&#13;
виявлення подібності текстових фрагментів на різних веб-ресурсах при проведенні моніторингу дотримання&#13;
вимог Положення щодо відкритих даних на офіційних веб-сайтах державних органів. Дослідження охопило&#13;
оцінку трьох ключових параметрів геш-функції: розміру блоку, бази простого числа та модуля. Для цього було&#13;
проведено серію експериментів, у яких різні комбінації цих параметрів використовувалися для генерування&#13;
геш-значень текстових даних. Результати дослідження продемонстрували, які комбінації параметрів забезпечують&#13;
найкращий баланс між точністю, повнотою, F-мірою та часом виконання. Показано, що певні комбінації&#13;
параметрів дозволяють досягти значного підвищення точності алгоритму при мінімізації обчислювальних&#13;
витрат, що є важливим для аналізу даних у реальному часі. Встановлено, що оптимізація параметрів гешфункції сприяє зниженню кількості хибнопозитивних та хибнонегативних результатів, які часто виникають&#13;
при виявленні подібності. Зокрема, підбір оптимальних значень для кожного з параметрів суттєво підвищує&#13;
точність і повноту аналізу, дозволяючи отримати більш точні результати порівняння текстових фрагментів та&#13;
зменшуючи час виконання операцій. Це робить алгоритм нечіткого гешування придатним для застосування в&#13;
автоматизованих системах моніторингу державних веб-сайтів щодо дотримання вимог щодо відкритих даних.&#13;
Виявлено, що оптимізація параметрів дозволяє зменшити кількість дубльованих записів, що особливо актуально&#13;
для забезпечення відповідності відкритих даних вимогам законодавства. Одержані висновки можуть бути&#13;
використані для розробки програмних засобів, які допоможуть ефективно виявляти недоліки та сприятимуть&#13;
підвищенню прозорості та відповідності правовим вимогам. Крім того, результати дослідження можуть бути&#13;
використані для подальшої оптимізації алгоритмів нечіткої геш-функції, що сприятиме вдосконаленню&#13;
технологій моніторингу даних на відповідність нормативним вимогам. Дослідження робить внесок у розвиток&#13;
технологій моніторингу веб-ресурсів, демонструючи, як правильно підібрані параметри нечіткої геш-функції&#13;
можуть значно підвищити ефективність і надійність аналізу відкритих даних
</summary>
<dc:date>2024-01-01T00:00:00Z</dc:date>
</entry>
</feed>
