dc.contributor.author | Кренцін, М. Д. | uk |
dc.contributor.author | Куперштейн, Л. М. | uk |
dc.date.accessioned | 2024-03-14T17:12:17Z | |
dc.date.available | 2024-03-14T17:12:17Z | |
dc.date.issued | 2021 | |
dc.identifier.citation | Кренцін М. Д. Аналіз атак на моделі машинного навчання [Електронний ресурс] / М. Д. Кренцін, Л. М. Куперштейн // Матеріали L Науково-технічної конференції підрозділів ВНТУ, Вінниця, 10-12 березня 2021 р. – Електрон. текст. дані. – 2021. – Режим доступу: https://conferences.vntu.edu.ua/index.php/all-fitki/all-fitki-2021/paper/view/12746. | uk |
dc.identifier.uri | http://ir.lib.vntu.edu.ua//handle/123456789/39705 | |
dc.description.abstract | У даній роботі досліджено основні методи атак на моделі машинного навчання. Наведено класифікацію атак та розглянуто їх основні переваги. | uk |
dc.description.abstract | In this works main methods of attacks on machine learning models were analyzed. The classification of attacks is given and their main advantages are considered.. | en |
dc.language.iso | uk_UA | uk_UA |
dc.publisher | ВНТУ | uk |
dc.relation.ispartof | Матеріали L Науково-технічної конференції підрозділів ВНТУ, Вінниця, 10-12 березня 2021 р. | uk |
dc.relation.uri | https://conferences.vntu.edu.ua/index.php/all-fitki/all-fitki-2021/paper/view/12746 | |
dc.subject | машинне навчання | uk |
dc.subject | цільові атаки | uk |
dc.subject | нецільові атаки | uk |
dc.subject | BlackBox | en |
dc.subject | WhiteBox | en |
dc.subject | machine learning | en |
dc.subject | targeted attacks | en |
dc.subject | non targeted attacks | en |
dc.title | Аналіз атак на моделі машинного навчання | uk |
dc.type | Thesis | |
dc.identifier.udc | 004.8+004.056 | |
dc.relation.references | Васюра А. С., Мартинюк Т.Б., Куперштейн Л.М. Методи та засоби нейроподібної обробки
даних для систем керування: монографія. – Вінниця : УНIВЕРСУМ-Вінниця, 2008. 175 с. | uk |
dc.relation.references | Lotufo R.A., Morgan A.D., and Johnson AS., 1990, Automatic Number-Plate Recognition,
Proceedings of the IEE Colloquium on Image analysis for Transport Applications, V01.035, pp.6/1-6/6,
February 16, 1990 | en |
dc.relation.references | Propp M, Samal A (1992) Artificial neural network architectures for human face detection. In:
Proceeding ofartificial neural networks in engineering, vol 2, pp 535–540 | en |
dc.relation.references | Кренцін М.Д., Куперштейн Л.М., Штокал А.С., Восьмушко О.В. Система підтримки
роботи ситуаційного центру на основі інтелектуальних хмарних технологій. Збірник матеріалів
міжнародної науково-технічної конференції молодих вчених, аспірантів та студентів CSYSC-2018. м.
Івано-Франківськ, 2018. с.119-120 | uk |
dc.relation.references | R. Gross, I. Matthews, J. Cohn, T. Kanade, and S. Baker, «Multi-pie,» Image and Vision
Computing, vol. 28, no. 5, pp. 807–813, 2010. | en |
dc.relation.references | N. Papernot, P. McDaniel, I. Goodfellow, S. Jha, Z. B. Celik, and A. Swami, «Practical black-box
attacks against machine learning,» in Proceedings of the 2017 ACM on Asia Conference on Computer and
Communications Security. ACM, 2017, pp. 506–519 | en |
dc.relation.references | Morales, J. L.; Nocedal, J. (2011). «Remark on «algorithm 778: L-BFGS-B: Fortran subroutines
for large-scale bound constrained optimization»». ACM Transactions on Mathematical Software. 38: 1–4.
doi:10.1145/2049662.2049669. S2CID 16742561 | en |
dc.relation.references | Adversarial example using FGSM URL: https://www.tensorflow.org/tutorials/generative/
adversarial_fgsm | en |
dc.relation.references | S.-M. Moosavi-Dezfooli, A. Fawzi, and P. Frossard, «Deepfool: a simple and accurate method to
fool deep neural networks» in Proceedings of the IEEE Conference on Computer Vision and Pattern
Recognition, 2016, pp. 2574–2582 | en |
dc.relation.references | N. Papernot, P. McDaniel, S. Jha, M. Fredrikson, Z. B. Celik, and A. Swami, “The limitations of
deep learning in adversarial settings,” in Security and Privacy (EuroS&P), 2016 IEEE European Symposium
on. IEEE, 2016, pp. 372–387 | en |
dc.relation.references | J. Su, D. Vargas, and K. Sakurai. One pixel attack for fooling deep neural networks. arXiv preprint
arXiv:1710.08864, 2017 | en |
dc.relation.references | Practical Black-Box Attacks against Machine Learning URL: https://arxiv.org/pdf/1602.02697.pdf | en |
dc.relation.references | UPSET and ANGRI : Breaking High Performance Image Classifiers URL:
https://arxiv.org/pdf/1707.01159.pdf | en |