Multi-emotion driven virtual speaker generation method integrating mul-tiple emotions

Multi-emotion driven virtual speaker generation method integrating mul-tiple emotions
Li Shuaishuaia,b
He Xiangzhena,b
Zhang Yuezhoua,b
Wang Jiaxina,b
a. Key Laboratory of Linguistic & Cultural Computing Ministry of Education, b. Key Laboratory of Ethnic Language & Cultural Intelligent Information Processing, Northwest Minzu University, Lanzhou 730030, China

摘要

Virtual speaker generation is an important research direction in the field of artificial intelligence, aiming to generate virtual speakers with realistic voices through computers. However, existing methods often neglect emotional expression and the facial details of the generated face images lack realism, limiting the performance and interactivity of the virtual speakers. To address this issue, a Transformer-based Generative Adversarial Network (GAN) method is proposed for generating virtual speakers with different emotions(GANLTB) . This method is based on the GAN network architecture, where the generator uses a Transformer model to process speech and image features, combined with emotional condition information and latent space vectors, to generate voice and images with specified emotions. The discriminator is used to assess the authenticity of the generated results and provide gradient signals to guide the training of the generator. By introducing bicubic interpolation, the image quality of the virtual speaker generation is further enhanced, making the facial details of the virtual speaker clearer and the expressions more natural and vivid. The method was validated using the CREMA-D dataset, a diverse emotional dataset, through subjective evaluation and objective indicators to assess the emotional expression ability and quality of the generated speech and images. Experimental results show that the method can generate virtual speakers with diverse and realistic emotional expressions. Compared to other advanced methods currently available, the proposed method is clearer in details such as fluency and realism, bringing a better sense of reality.

基金项目

国家自然科学基金资助项目(62341209)
中央高校基本科研业务费专项资金资助项目(31920230054)

出版信息

DOI: 10.19734/j.issn.1001-3695.2023.10.0559
出版期卷: 《计算机应用研究》 Accepted Paper, 2024年第41卷 第8期

发布历史

[2024-01-24] Accepted Paper

引用本文

李帅帅, 何向真, 张跃洲, 等. 融合多情感的语音驱动虚拟说话人生成方法 [J]. 计算机应用研究, 2024, 41 (8). (2024-04-10). https://doi.org/10.19734/j.issn.1001-3695.2023.10.0559. (Li Shuaishuai, He Xiangzhen, Zhang Yuezhou, et al. Multi-emotion driven virtual speaker generation method integrating mul-tiple emotions [J]. Application Research of Computers, 2024, 41 (8). (2024-04-10). https://doi.org/10.19734/j.issn.1001-3695.2023.10.0559. )

关于期刊

  • 计算机应用研究 月刊
  • Application Research of Computers
  • 刊号 ISSN 1001-3695
    CN  51-1196/TP

《计算机应用研究》创刊于1984年,是由四川省科技厅所属四川省计算机研究院主办的计算技术类学术刊物。

《计算机应用研究》瞄准本学科领域迫切需要的前沿技术,及时反映国内外计算机应用研究的主流技术、热点技术及最新发展趋势。主要刊载内容包括本学科领域高水平的学术论文、本学科最新科研成果和重大应用成果。栏目内容涉及计算机学科新理论、计算机基础理论、算法理论研究、算法设计与分析、区块链技术、系统软件与软件工程技术、模式识别与人工智能、体系结构、先进计算、并行处理、数据库技术、计算机网络与通信技术、信息安全技术、计算机图像图形学及其最新热点应用技术。

《计算机应用研究》拥有众多高层次读者、作者,读者对象主要为从事计算机学科领域高、中级研究人员及工程技术人员,各高等院校计算机专业及相关专业的师生。多年来《计算机应用研究》的总被引频次及Web下载率一直名列本学科同类学术刊物前茅,所刊发的学术论文以其新颖性、学术性、前瞻性、导向性、实用性而备受广大读者的喜爱。


收录和评价

  • 第二届国家期刊奖百种重点期刊
  • 中国期刊方阵双效期刊
  • 全国中文核心期刊(北大2023年版)
  • 中国科技核心期刊
  • 中国科学引文数据库(CSCD)来源期刊
  • RCCSE中国核心学术期刊
  • 中国计算机学会会刊
  • 2020—2022年科技期刊世界影响力指数(WJCI)报告收录期刊
  • 中国科技期刊精品数据库全文来源期刊
  • 中国学术期刊综合评价数据库来源期刊
  • 《中国期刊网》《中国学术期刊(光盘版)》来源期刊
  • 2017—2019年中国国际影响力优秀学术期刊(自然科学与工程技术)
  • 中国精品科技期刊顶尖学术论文(F5000)项目来源期刊
  • 《中国工程技术电子信息网》《电子科技文献数据库》来源期刊
  • 英国《科学文摘》(INSPEC)来源期刊
  • 《日本科学技术振兴机构数据库》(JST)来源期刊
  • 俄罗斯《文摘杂志》(AJ, VINITI)来源期刊
  • 美国《艾博思科学术数据库》(EBSCO)全文来源期刊
  • 美国《剑桥科学文摘(自然科学)》(CSA(NS))核心期刊
  • 波兰《哥白尼索引》(IC)来源期刊
  • 美国《乌利希期刊指南(网络版)》(Ulrichsweb)收录期刊