Показати скорочену інформацію

dc.contributor.authorКовтун, В. В.uk
dc.date.accessioned2019-05-29T08:51:03Z
dc.date.available2019-05-29T08:51:03Z
dc.date.issued2018
dc.identifier.citationКовтун В. В. Оцінювання основного тону у автоматизованій системі розпізнавання мовця критичного застосування [Текст] / В. В. Ковтун // Вісник Вінницького політехнічного інституту. – 2018. – № 4. – С. 61-73.uk
dc.identifier.issn1997–9266
dc.identifier.issn1997–9274
dc.identifier.urihttp://ir.lib.vntu.edu.ua//handle/123456789/25165
dc.description.abstractЗапропоновано метод оцінювання трендів основного тону, який, на відміну від існуючих, використовує оптимізовану із застосуванням дерева переходів факторіальну приховану Марковську модель для формування трендів основного тону узагальнюючи при цьому інформацію від детекторів станів основного тону, на основі глибокої та рекурентної нейромереж, що дозволило спрогнозувати оцінки станів основного тону, використовуючи довготривалу інформацію з пакетів фреймів мовного сигналу, описати часову динаміку основного тону та зменшити вплив шумів у мовному сигналі на якість оцінок основного тону. Створено методи оцінювання станів основного тону на основі глибокої та рекурентної нейромереж та метод оцінювання трендів основного тону на основі факторіальної прихованої Марковської моделі (ФПММ). Проведено дослідження для оптимізації параметрів запропонованих методів для використання у складі автоматизованої системи розпізнавання мовця критичного застосування (АСРМКЗ). Зокрема, результати досліджень дозволяють рекомендувати нормовані за потужністю кепстральні ознаки як базові для оцінювання основного тону запропонованими методами, застосовувати в роботі методів пакети фреймів тривалістю 10 фреймів, будувати описані у методах нейромережі, використовуючи на прихованих шарах 1024 нейрони та використовувати 68 станів для опису основного тону. Результати проведених досліджень залежності якості розпізнавання мовців АСРМКЗ від рівня відношення сигнал/шум (ВСШ) у вхідному мовному матеріалі та оцінками основного тону, отриманими в результаті роботи створених методів, параметри яких оптимізовано з урахуванням результатів проведених досліджень, показали, що для всіх рівнів ВСШ найточніші оцінки основного тону дає ФПММ-метод, забезпечуючи імовірність правильного розпізнавання мовців АСРМКЗ на рівні 96…99 % для обраної тестувальної вибірки.uk
dc.description.abstractexisting ones, uses a factorial hidden Markov model optimized with the junction tree algorithm for pitch trend estimation, generalizing information from pitch state detectors based on deep and recurrent neural networks, with which it is allowed precisely to predict a pitch trend using long-term information from speech frames packets, describe the dynamics of the pitch in the time domain and reduce the noise influence on the quality of pitch estimates. Methods for estimating pitch states based on deep and recurrent neural networks and a method for estimating the pitch trend based on the factorial hidden Markov model (FHMM) are developed. A study was carried out to optimize the parameters of the proposed methods for use as part of the automated speaker recognition system for critical use (ASRSCU). In particular, the results of the research make it possible to recommend power-normalized cepstral characteristics as the basis for estimating the pitch by the proposed methods, to apply frames packets with a duration of 10 frames, to use 1024 neurons in the hidden layers of neural networks that implement the proposed methods, and to use 68 states to describe the pitch. The results of the conducted researches of the dependence of the quality of speakers recognition by the ASRSCU from the level of the signal-to-noise ratio (SNR) in the input speech material and the pitch estimates obtained as a result of the work of the created methods, the parameters of which are optimized taking into account the results of the conducted studies, showed that for all levels of SNR the exact pitch estimate is provided by the FHMM method, showing the correct speakers recognition probability by the ASRSCU at a level of 96…99 % for the selected test sample.en
dc.description.abstractПредложен метод оценки трендов основного тона, который в отличие от существующих, использует оптимизированную с применением дерева переходов факториальную скрытую Марковскую модель для формирования трендов основного тона, обобщая информацию от детекторов состояний основного тона на основе глубокой и рекуррентной нейросетей, что позволило спрогнозировать оценки состояний основного тона, используя долговременную информацию из пакетов фреймов речевого сигнала, описать динамику основного тона во времени и уменьшить влияние шумов в речевом сигнале на качество оценок основного тона. Созданы методы оценки состояний основного тона на основе глубокой и рекуррентной нейросетей и метод оценки трендов основного тона на основе факториальной скрытой Марковской модели (ФСММ). Проведено исследование для оптимизации параметров предложенных методов для использования в составе автоматизированной системы распознавания диктора критического применения (АСРДКП). В частности, результаты исследований позволяют рекомендовать нормированные по мощности кепстральные признаки как базовые для оценки основного тона предложенными методами, применять при работе методов пакеты фреймов продолжительностью 10 фреймов, использовать 1024 нейрона в скрытых слоях нейросетей, которые реализуют предложенные методы, и использовать 68 состояний для описания основного тона. Результаты проведенных исследований зависимости качества распознавания дикторов АСРДКП от уровня отношение сигнал/шум (ОСШ) во входном речевом материале и оценками основного тона, полученными в результате работы предложенных методов, параметры которых оптимизированы с учетом результатов проведенных исследований, показали, что для всех уровней ОСШ самые точные оценки основного тона обеспечивает ФСММ-метод, показывая вероятность правильного распознавания дикторов АСРДКП на уровне 96…99 % для выбранной тестовой выборки.ru
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofВісник Вінницького політехнічного інституту. № 4 : 61-73.uk
dc.relation.urihttps://visnyk.vntu.edu.ua/index.php/visnyk/article/view/2253
dc.subjectавтоматизована система розпізнавання мовців критичного застосуванняuk
dc.subjectосновний тонuk
dc.subjectглибока нейромережаuk
dc.subjectрекурентна нейромережаuk
dc.subjectфакторіальна прихована Марковська модельuk
dc.subjectавтоматизированная система распознавания дикторов критического примененияru
dc.subjectосновной тонru
dc.subjectглубокая нейросетьru
dc.subjectрекуррентная нейросетьru
dc.subjectфакториальная скрытая Марковская модельru
dc.subjectautomated speaker recognition system for critical useen
dc.subjectpitchen
dc.subjectdeep neural networken
dc.subjectrecurrent neural networken
dc.subjectfactorial hidden Markov modelen
dc.titleОцінювання основного тону у автоматизованій системі розпізнавання мовця критичного застосуванняuk
dc.title.alternativeОценивание основного тона в автоматизированной системы распознавания диктора критического примененияru
dc.title.alternativePitch Estimation for Automated Speaker Recognition System for Critical Useen
dc.typeArticle
dc.identifier.udc681.327.12
dc.relation.referencesB. S. Atal, “Automatic speaker recognition based on pitch contours,” J. Acoust. Soc. Amer., vol. 52, pp. 1687-1697, 1972.en
dc.relation.referencesD. J. Hermes, “Measurement of pitch by subharmonic summation,” J. Acoust. Soc. Amer., vol. 83, p. 257-264, 1988.en
dc.relation.referencesM. R. Schroeder, “Period histogram and product spectrum: New methods for fundamental-frequency measurement,” J. Acoust. Soc. Amer., vol. 43, pp. 829-834, 1968.en
dc.relation.referencesW. Chu, and A. Alwan, “SAFE: A statistical approach to F0 estimation under clean and noisy conditions,” IEEE Trans. Audio, Speech, Lang. Process., vol. 20, no. 3, pp. 933-944, 2012.en
dc.relation.referencesS. Gonzalez, and M. Brookes, “PEFAC-A pitch estimation algorithm robust to high levels of noise,” IEEE/ACM Trans. Audio, Speech, Lang. Process., vol. 22, no. 2, pp. 518-530, 2014.en
dc.relation.referencesD. Talkin, “A robust algorithm for pitch tracking (RAPT),” Speech Coding Synth., vol. 495, pp. 497-518, 1995.en
dc.relation.referencesA. De Cheveigne, and H. Kawahara, “YIN, a fundamental frequency estimator for speech and music,” J. Acoust. Soc. Amer., vol. 111, pp. 1917-1930, 2002.en
dc.relation.referencesM. Wu, D. L. Wang, and G. J. Brown, “A multipitch tracking algorithm for noisy speech,” IEEE Trans. Speech, Audio Process., vol. 11, no. 3, pp. 229-241, 2003.en
dc.relation.referencesZ. Jin, and D. L.Wang, “HMM-based multipitch tracking for noisy and reverberant speech,” IEEE Trans. Audio, Speech, Lang. Process., vol. 19, no. 5, pp. 1091-1102, 2011.en
dc.relation.referencesB. S. Lee, and D. P. W. Ellis, “Noise robust pitch tracking by subband autocorrelation classification,” in 13th Annual Conference of the International Speech Communication Association, 2012. doi 10.7916/D86M3H3S.en
dc.relation.referencesX. Glorot, A. Bordes, and Y. Bengio, “Deep sparse rectifier neural networks,” Proc. of AISTATS, pp. 315–323, 2011.en
dc.relation.referencesO. Vinyals, S. V. Ravuri, and D. Povey, “Revisiting recurrent neural networks for robust ASR,” Proc. ICASSP, pp. 4085–4088, 2012.en
dc.relation.referencesZ. Ghahramani, and M. Jordan, “Factorial hidden Markov models,” Mach. Learn. vol. 29, pp. 245-273, 1997.en
dc.relation.referencesM. Jordan, Z. Ghahramani, and T. Jaakkola, “An introduction to variational methods for graphical models,” Mach. Learn. vol. 37, pp. 183-233, 1999.en
dc.relation.referencesV. Zue, S. Seneff, and J. Glass, “Speech database development at MIT: TIMIT and beyond,” Speech Commun., vol. 9, no. 4, pp. 351-356, 1990.en
dc.relation.referencesA. Varga, and H. Steeneken, “Assessment for automatic speech recognition: II. NOISEX-92: A database and an experiment to study the effect of additive noise on speech recognition systems,” Speech Communication, vol. 12, no. 3, pp. 247-251, 1993.en
dc.relation.referencesL. Rabiner, M. Cheng, and A. Rosenberg, “A comparative performance study of several pitch detection algorithms,” IEEE Transactions on Acoustics, Speech and Signal Proc., vol. 24, no. 5, pp. 399-418, 1976.en
dc.relation.referencesR. H. Mohd, M. Zamil, and B. K. Mohd, “Speaker identification using MFCC coefficients,” in 3rd international conference on electrical and computer engineering (ICECE), 2004.en
dc.relation.referencesC. Kim, and R. M. Stern, “Power-normalized cepstral coefficients (PNCC) for robust speech recognition,” Proc. of IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), vol. 24, pp. 1315-1329, 2012.en
dc.relation.referencesJ. C. Wang, C. H. Lin, and E. T. Chen, “Spectral-temporal receptive fields and mfcc balanced feature extraction for noisy speech recognition,” Asia-Pacific Signal and Information Processing Association (APSIPA), 2014. doi 10.1007%2Fs11042-016-3335-0.en
dc.relation.referencesK. Han, and DeL. Wang, “Neural network based pitch tracking in very noisy speech,” IEEE/ACM Transactions on Audio, Speech and Language Proc., vol. 22, no. 12, pp. 2158-2168, 2014.en
dc.relation.referencesМ. М. Биков, та В. В. Ковтун, «Оцінювання надійності автоматизованих систем розпізнавання мовців критичного застосування,» Вісник Вінницького політехнічного інституту, № 2, с. 70-76, 2017.uk


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію