ЭФФЕКТИВНАЯ АУГМЕНТАЦИЯ ДАННЫХ ДЛЯ ОБУЧЕНИЯ УСТОЙЧИВОЙ К ИСКАЖЕНИЯМ СИСТЕМЫ ГОЛОСОВОЙ ВЕРИФИКАЦИИ

Основное содержание статьи

Никита Александрович Швец
Андрей Александрович Лепендин Email: lependin@phys.asu.ru
Валентин Витальевич Карев

Аннотация

В данной работе представлена новая методика аугментации речевых данных для эффективного обучения систем голосовой верификации. Она основана на расширении набора преобразований аудиосигналов за счет добавления метода улучшения качества речи, применяемого к искаженным аудиосигналам. Тем самым обеспечивается учет всех основных способов применения современных систем верификации как с использованием предварительной обработки регистрируемого речевого сигнала, так и без таковых. Предложенная методика апробирована на голосовых записях набора VoxCeleb1, шумах и импульсных характеристиках из набора DNS Challenge 2023. В качестве нейронной сети для апробации предложенной методики использована архитектура FastResNet34. Показано, что обучение на расширенном аугментированном наборе данных с искусственно искаженными и очищенными от искажений речевыми образцами дало существенный прирост качества верификации во всех основных сценариях использования модельной системы верификации.

Скачивания

Данные скачивания пока недоступны.

Детали статьи

Как цитировать
1. Швец Н. А., Лепендин А. А., Карев В. В. ЭФФЕКТИВНАЯ АУГМЕНТАЦИЯ ДАННЫХ ДЛЯ ОБУЧЕНИЯ УСТОЙЧИВОЙ К ИСКАЖЕНИЯМ СИСТЕМЫ ГОЛОСОВОЙ ВЕРИФИКАЦИИ // ПРОБЛЕМЫ ПРАВОВОЙ И ТЕХНИЧЕСКОЙ ЗАЩИТЫ ИНФОРМАЦИИ, 2024. № 12. С. 94-102. URL: http://journal.asu.ru/ptzi/article/view/16015.
Раздел
Статьи

Литература

1. Rituerto-Gonzalez E., Minguez-Sanchez A., Gallardo-Antolin A., Pelaez-Moreno C. Data Augmentation for Speaker Identification under Stress Conditions to Combat Gender-Based Violence // Applied sciences. 2019. Т. 9. № 11. С. 2298.
2. Reddy C., Gopal V., Cutler R. DNSMOS: A Non-Intrusive Perceptual Objective Speech Quality metric to evaluate Noise Suppressors // ICASSP 2020. Proc. IEEE 2020, Barcelona, Spain, 4-8 мая 2020.
3. Abayomi-Alli O. O., Damasevicius R., Qazi A., Adedoyin-Olowe M. Data Augmentation and Deep Learning Methods in Sound Classification: A Systematic Review // Electronics. 2022. Т. 22. № 11. С. 3795.
4. Chung J. S., Jaesung H., Seongkyu M., Lee M., Heo H. S., Choe S., Ham C., Jung S., Lee B. J., Han I. In defence of metric learning for speaker recognition // Proc. Interspeech. 2020. С. 2977-2981.
5. Kaiming H., Xiangyu Z., Shaoqing R., Jian S. Deep Residual Learning for Image Recognition // 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Proc. IEEE 2016, Las Vegas, 26 июня - 1 июля. С. 770-778.
6. Sainburg T., Thielk M., Gentner T. G. Finding, visualizing, and quantifying latent structure across diverse animal vocal repertoires // PLOS Computational Biology. 2020. Т. 10. № 16.
7. timsainb/noisereduce // Github.com: сайт. URL: https://github.com/timsainb/noisereduce (дата обращения: 15.10.2024).
8. Nagrani, A., Chung, J.S., Zisserman, A. VoxCeleb: A Large-Scale Speaker Identification Dataset // Proc. Interspeech. 2017. С. 2616-2620.
9. BS.562: Subjective assessment of sound quality // itu.int: сайт. URL: https://www.itu.int/rec/ R-REC-BS.562/en (дата обращения: 15.10.2024).

10. Муртазин Р. А., Кузнецов А. Ю., Фёдоров Е. А., Гарипов И. М., Холоденина А. В., Балданова Ю. Ю., Воробьева А. А. Алгоритм выявления синтезированного голоса на основе кепстральных коэффициентов и сверточной нейронной сети // Научно-технический вестник информационных технологий, механики и оптики. 2021. Т. 21. № 4. С. 545–552.