Показати скорочену інформацію

dc.contributor.authorКоваленко, В. А.uk
dc.contributor.authorБогач, І. В.uk
dc.date.accessioned2024-03-19T14:18:29Z
dc.date.available2024-03-19T14:18:29Z
dc.date.issued2022
dc.identifier.citationКоваленко В. А. Creation of an application for real time emotions recognition on a low resource machinies [Electronic resource] / В. А. Коваленко, І. В. Богач // Матеріали LI науково-технічної конференції підрозділів ВНТУ, Вінниця, 31 травня 2022 р. – Електрон. текст. дані. – 2022. – Режим доступу: https://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2022/paper/view/15183.uk
dc.identifier.urihttp://ir.lib.vntu.edu.ua//handle/123456789/40176
dc.description.abstractУ цій статі описаний процес створення додатку класифікації емоцій у реальному часі. Представлено новий набір даних, що включає у себе біологічні емоції й навіяну інтернет модою. Описаний процес вибору алгоритму, підбору гіпер-параметрів й оптимізації після тренування. Висвітлено процес інтеграції бізнес логіки. Код тренування разом з додатком, набором даних й моделлю знаходяться у відкритому доступіuk
dc.description.abstractThe creation of an application concerning real time emotions recognition is issued in this paper. A new high-quality dataset that mixes both biologically inspired and internet-based emotions is presented. The process of algorithms definition, hyper-parameter tuning and post-training optimization is described. The additional business logic integration is highlighted. Training code along with application, dataset and model is open sourced.en
dc.language.isoenen
dc.publisherВНТУuk
dc.relation.ispartofМатеріали LI науково-технічної конференції підрозділів ВНТУ, Вінниця, 31 травня 2022 р.uk
dc.relation.urihttps://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2022/paper/view/15183
dc.subjectМашинне навчанняuk
dc.subjectштучний інтелектuk
dc.subjectемоціїuk
dc.subjectкласифікація зображеньuk
dc.subjectпошук об’єктівuk
dc.subjectкомп’ютерний зірuk
dc.subjectmobileneten
dc.subjectssden
dc.subjecttensorflowen
dc.subjectMLen
dc.subjectAIen
dc.subjectemotionsen
dc.subjectimage classificationen
dc.subjectobject detectionen
dc.subjectCVen
dc.titleCreation of an application for real time emotions recognition on a low resource machiniesen
dc.typeThesis
dc.identifier.udc004.9
dc.identifier.udc616.24
dc.relation.referencesAli Mollahosseini, Behzad Hasani, and Mohammad H. Mahoor, “AffectNet: A New Database for Facial Expression, Valence, and Arousal Computation in the Wild”, IEEE Transactions on Affective Computing, 2017.en
dc.relation.referencesI. J. Goodfellow, D. Erhan, P. L. Carrier, A. Courville, M. Mirza, B. Hamner, W. Cukierski, Y. Tang, D. Thaler, D.-H. Lee, Y. Zhou, C. Ramaiah, F. Feng, R. Li, X. Wang, D. Athanasakis, J. Shawe-Taylor, M. Milakov, J. Park, R. Ionescu, M. Popescu, C. Grozea, J. Bergstra, J. Xie, L. Romaszko, B. Xu, Z. Chuang, and Y. Bengio. Challenges in representation learning: A report on three machine learning contests. Neural Networks, 64:59--63, 2015. Special Issue on "Deep Learning of Representations"en
dc.relation.referencesHenrique Siqueira, Sven Magg and Stefan Wermter. Efficient Facial Feature Learning with Wide Ensemble-based Convolutional Neural Networks. [Electronic resource] – Electronic data. – Mode of access: https://arxiv.org/pdf/1612.02903.pdf – Title from the screen.en
dc.relation.referencesCharlie Hewitt, Hatice Gunes. CNN-based Facial Affect Analysis on Mobile Devices. [Electronic resource] – Electronic data. – Mode of access: https://arxiv.org/pdf/1807.08775.pdf – Title from the screen.en
dc.relation.referencesR. Rothe, R. Timofte and L. Van Gool, "DEX: Deep EXpectation of Apparent Age from a Single Image," 2015 IEEE International Conference on Computer Vision Workshop (ICCVW), 2015, pp. 252- 257,doi:10.1109/ICCVW.2015.41.en
dc.relation.referencesKovenko, Volodymyr; Shevchuk, Vitalii (2022), “OAHEGA : EMOTION RECOGNITION DATASET”, Mendeley Data,V3,doi: 10.17632/5ck5zz6f2c.3en
dc.relation.referencesWei Liu et. al. SSD: Single Shot MultiBox Detector. [Electronic resource] – Electronic data. –Mode of access: https://arxiv.org/pdf/1512.02325.pdf – Title from the screen.en
dc.relation.referencesHoward, A. G., Zhu, M., Chen, B., Kalenichenko, D., Wang, W., Weyand, T., Andreetto, M. & Adam, H. (2017). MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications (cite arxiv:1704.04861)en
dc.relation.referencesKingma, D. P. & Ba, J. (2014). Adam: A Method for Stochastic Optimization (cite arxiv:1412.6980Comment: Published as a conference paper at the 3rd International Conference for Learning Representations, San Diego, 2015)en
dc.relation.referencesOahega - Emotion detector. [Electronic resource] – Electronic data. – Mode of access: https://play.google.com/store/apps/details?id=org.oahega.com – Title from the screen.en
dc.relation.referencesOAHEGA. [Electronic resource] – Electronic data. – Mode of access: https://github.com/HikkaV/OAHEGA – Title from the screen.en


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію