dc.contributor.author | Маліцький, В. В. | uk |
dc.contributor.author | Штовба, С. Д. | uk |
dc.date.accessioned | 2024-03-19T14:15:24Z | |
dc.date.available | 2024-03-19T14:15:24Z | |
dc.date.issued | 2022 | |
dc.identifier.citation | Маліцький В. В. Автоматизація виявлення прихованого токсичного контенту в текстових повідомленнях [Електронний ресурс] / В. В. Маліцький, С. Д. Штовба // Матеріали LI науково-технічної конференції підрозділів ВНТУ, Вінниця, 31 травня 2022 р. – Електрон. текст. дані. – 2022. – Режим доступу: https://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2022/paper/view/15942. | uk |
dc.identifier.uri | http://ir.lib.vntu.edu.ua//handle/123456789/40113 | |
dc.description.abstract | Досліджено питання детекції прихованого токсичного контенту в текстових повідомленях. Розроблено дві моделі глибинного навчання на основі архітектури BERT, що здатні визначати
загальний рівень токсичності повідомлення та визначати замасковані лайливі слова у
повідомленнях. | uk |
dc.description.abstract | The task of hidden toxic content detection in text messages has been discovered. Two in-depth learning models based on the BERT architecture have been developed, which are able to determine the overall level of toxicity of the message and identify masked swear words in messages.. | en |
dc.language.iso | uk_UA | uk_UA |
dc.publisher | ВНТУ | uk |
dc.relation.ispartof | Матеріали LI науково-технічної конференції підрозділів ВНТУ, Вінниця, 31 травня 2022 р. | uk |
dc.relation.uri | https://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2022/paper/view/15942 | |
dc.subject | глибинне навчання | uk |
dc.subject | обробка природної мови | uk |
dc.subject | нейронна мережа | uk |
dc.subject | BERT | uk |
dc.subject | Deep Learning | en |
dc.subject | Natural Language Processing | en |
dc.subject | Neural Network | en |
dc.title | Автоматизація виявлення прихованого токсичного контенту в текстових повідомленнях | uk |
dc.type | Thesis | |
dc.identifier.udc | 65.011.56 | |
dc.relation.references | Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. 2019. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding; | en |
dc.relation.references | Kaggle - Jigsaw Unintended Bias in Toxicity Classification [ Електронний ресурс ] : https://www.kaggle.com/competitions/jigsaw-unintended-bias-in-toxicityclassification/data/; | en |
dc.relation.references | PyTorch – From Research to Production [Електронний ресурс] – Режим доступу до ресурсу:
https://pytorch.org/ | en |