dc.contributor.author | Коваленко, В. А. | uk |
dc.contributor.author | Богач, І. В. | uk |
dc.date.accessioned | 2024-03-19T14:18:29Z | |
dc.date.available | 2024-03-19T14:18:29Z | |
dc.date.issued | 2022 | |
dc.identifier.citation | Коваленко В. А. Creation of an application for real time emotions recognition on a low resource machinies [Electronic resource] / В. А. Коваленко, І. В. Богач // Матеріали LI науково-технічної конференції підрозділів ВНТУ, Вінниця, 31 травня 2022 р. – Електрон. текст. дані. – 2022. – Режим доступу: https://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2022/paper/view/15183. | uk |
dc.identifier.uri | http://ir.lib.vntu.edu.ua//handle/123456789/40176 | |
dc.description.abstract | У цій статі описаний процес створення додатку класифікації емоцій у реальному часі. Представлено новий набір даних, що включає у себе біологічні емоції й навіяну інтернет модою. Описаний процес вибору алгоритму, підбору гіпер-параметрів й оптимізації після тренування. Висвітлено процес інтеграції бізнес логіки. Код тренування разом з додатком, набором даних й моделлю знаходяться у відкритому доступі | uk |
dc.description.abstract | The creation of an application concerning real time emotions recognition is issued in this paper. A new high-quality dataset that mixes both biologically inspired and internet-based emotions is presented. The process of algorithms definition, hyper-parameter tuning and post-training optimization is described. The additional business logic integration is highlighted. Training code along with application, dataset and model is open sourced. | en |
dc.language.iso | en | en |
dc.publisher | ВНТУ | uk |
dc.relation.ispartof | Матеріали LI науково-технічної конференції підрозділів ВНТУ, Вінниця, 31 травня 2022 р. | uk |
dc.relation.uri | https://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2022/paper/view/15183 | |
dc.subject | Машинне навчання | uk |
dc.subject | штучний інтелект | uk |
dc.subject | емоції | uk |
dc.subject | класифікація зображень | uk |
dc.subject | пошук об’єктів | uk |
dc.subject | комп’ютерний зір | uk |
dc.subject | mobilenet | en |
dc.subject | ssd | en |
dc.subject | tensorflow | en |
dc.subject | ML | en |
dc.subject | AI | en |
dc.subject | emotions | en |
dc.subject | image classification | en |
dc.subject | object detection | en |
dc.subject | CV | en |
dc.title | Creation of an application for real time emotions recognition on a low resource machinies | en |
dc.type | Thesis | |
dc.identifier.udc | 004.9 | |
dc.identifier.udc | 616.24 | |
dc.relation.references | Ali Mollahosseini, Behzad Hasani, and Mohammad H. Mahoor, “AffectNet: A New Database for
Facial Expression, Valence, and Arousal Computation in the Wild”, IEEE Transactions on Affective
Computing, 2017. | en |
dc.relation.references | I. J. Goodfellow, D. Erhan, P. L. Carrier, A. Courville, M. Mirza, B. Hamner, W. Cukierski, Y. Tang,
D. Thaler, D.-H. Lee, Y. Zhou, C. Ramaiah, F. Feng, R. Li, X. Wang, D. Athanasakis, J. Shawe-Taylor, M.
Milakov, J. Park, R. Ionescu, M. Popescu, C. Grozea, J. Bergstra, J. Xie, L. Romaszko, B. Xu, Z. Chuang,
and Y. Bengio. Challenges in representation learning: A report on three machine learning contests. Neural
Networks, 64:59--63, 2015. Special Issue on "Deep Learning of Representations" | en |
dc.relation.references | Henrique Siqueira, Sven Magg and Stefan Wermter. Efficient Facial Feature Learning with Wide
Ensemble-based Convolutional Neural Networks. [Electronic resource] – Electronic data. – Mode of access:
https://arxiv.org/pdf/1612.02903.pdf – Title from the screen. | en |
dc.relation.references | Charlie Hewitt, Hatice Gunes. CNN-based Facial Affect Analysis on Mobile Devices. [Electronic
resource] – Electronic data. – Mode of access: https://arxiv.org/pdf/1807.08775.pdf – Title from the screen. | en |
dc.relation.references | R. Rothe, R. Timofte and L. Van Gool, "DEX: Deep EXpectation of Apparent Age from a Single
Image," 2015 IEEE International Conference on Computer Vision Workshop (ICCVW), 2015, pp. 252-
257,doi:10.1109/ICCVW.2015.41. | en |
dc.relation.references | Kovenko, Volodymyr; Shevchuk, Vitalii (2022), “OAHEGA : EMOTION RECOGNITION
DATASET”, Mendeley Data,V3,doi: 10.17632/5ck5zz6f2c.3 | en |
dc.relation.references | Wei Liu et. al. SSD: Single Shot MultiBox Detector. [Electronic resource] – Electronic data. –Mode
of access: https://arxiv.org/pdf/1512.02325.pdf – Title from the screen. | en |
dc.relation.references | Howard, A. G., Zhu, M., Chen, B., Kalenichenko, D., Wang, W., Weyand, T., Andreetto, M. & Adam,
H. (2017). MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications (cite arxiv:1704.04861) | en |
dc.relation.references | Kingma, D. P. & Ba, J. (2014). Adam: A Method for Stochastic Optimization (cite
arxiv:1412.6980Comment: Published as a conference paper at the 3rd International Conference for Learning
Representations, San Diego, 2015) | en |
dc.relation.references | Oahega - Emotion detector. [Electronic resource] – Electronic data. – Mode of access:
https://play.google.com/store/apps/details?id=org.oahega.com – Title from the screen. | en |
dc.relation.references | OAHEGA. [Electronic resource] – Electronic data. – Mode of access:
https://github.com/HikkaV/OAHEGA – Title from the screen. | en |