炼数成金 门户 商业智能 语音识别 查看内容

多重信号辅助音频分离,让你在嘈杂环境也能指哪听哪儿

2018-5-25 15:01| 发布者: 炼数成金_小数| 查看: 18621| 评论: 0|来自: TensorFlow

摘要: 在嘈杂的环境中,人们非常善于把注意力集中在某个特定的人身上,在心理上"屏蔽"所有其他语音和声音。这种能力被称为鸡尾酒会效应,它是我们人类与生俱来的本领。然而,尽管关于自动语音分离(将音频信号分离为单 ...

网络 工具 模型 机器学习 神经网络

在刚刚结束的 I/O 大会的主题演讲中,Google CEO Sundar 提出了机器学习在无障碍(Accessibility)方面的用例:有听觉障碍的人在观看视频时往往需要配合字幕来完成辅助理解,但是如果你遇到了多个人同时在说话,自动生成的字幕反倒会扰乱听障人士的思维,使得他们更不知其所云。

有了我们称之为 Looking to Listen 的机器学习技术之后,我们通过对视频信号的处理和分析,将正在说话的人进行语音分离,借此提高音频的质量和准确度。


我们将这篇今年 4 月份发布在 Google Research 博客上的分享于此,借以机会让大家可以有更多针对这方面技术的了解。小编也为大家录制了带有 YouTube 自动生成字幕的处理后的视频,便于大家理解。

博客发布人:Google Research 软件工程师 Inbar Mosseri 和 Oran Lang
在嘈杂的环境中,人们非常善于把注意力集中在某个特定的人身上,在心理上"屏蔽"所有其他语音和声音。这种能力被称为鸡尾酒会效应,它是我们人类与生俱来的本领。然而,尽管关于自动语音分离(将音频信号分离为单独的语音源)的研究已经非常深入,这个课题仍是计算机领域的一项重大挑战。

在"Looking to Listen at the Cocktail Party"论文中,我们提出了一种深度学习音频—视觉模型,用于将单个语音信号与背景噪声、其他人声等混合声音分离开来。我们通过计算生成视频,增强其中特定人员的语音,同时减弱其他人的声音。此方法用在具有单个音频轨道的普通视频上,用户需要做的就是在视频中选出他们想要听到的说话者的面部,或者结合语境用算法选出这样的人。我们认为此方法用途广泛,从视频中的语音增强和识别、视频会议,到改进助听器,不一而足,尤其适用于有多个说话人的情景。

这项技术的独特之处在于结合了输入视频的听觉和视觉信号来分离语音。直观地讲,人嘴部的运动应当与这个人说话时产生的声音相关联,这反过来又可以帮助识别音频的哪些部分对应于这个人。视觉信号不仅可以在混合语音的情况下显著提高语音分离质量(与仅仅使用音频的语音分离相比,与我们的论文得出的结论相同),但是重要的是,它还能够将分离的干净语音轨道与视频中的可见说话者相关联。

在我们的方法中,输入是具有一个或多个说话者的视频,其中我们需要的语音受到其他说话者和(或)背景噪声的干扰。输出是输入音频轨道分解成的干净语音轨道,其中每个语音轨道来自视频中检测到的每一个人。
音频—视觉语音分离模型

为了生成训练样本,我们首先从 YouTube 上采集了 10 万个高质量讲座和演讲视频。然后从视频中提取带有清晰语音的片段(例如没有混合音乐、观众声音或其他说话者声音的片段)和视频帧中只有一个说话者的片段。这样得到了大约 2000 小时的视频剪辑,镜头中出现的是单个人,且说话的时候没有背景干扰。之后,我们使用这些干净数据生成"合成鸡尾酒会",即,将人脸视频、来自单独视频源的对应语音及从 AudioSet 获取的无语音背景噪声混合在一起。

使用这些数据,我们能够训练基于多流卷积神经网络的模型,将合成鸡尾酒会混合片段分割成视频中每个说话者的单独音频流。网络输入是从每一帧检测到的说话者脸部缩略图中提取的视觉特征以及视频声道的声谱图表示。在训练过程中,网络(分别)学习视觉和听觉信号的编码,然后将其融合在一起,形成一个联合音频—视觉表示。利用这种联合表示,网络可以学习为每个说话者输出时频掩码。输出掩码乘以带噪声的输入声谱图,然后转换成时域波形,以获取每位说话者单独、干净的语音信号。如需了解完整的详细信息,请参阅我们的论文,论文链接:

https://arxiv.org/abs/1804.03619


基于多流神经网络的模型架构。
以下是使用我们的方法得到的语音分离和增强结果(先播放带混合或嘈杂语音的输入视频,然后播放增强结果)。所选说话者之外的另一个人的声音可以完全消去,或被抑制到所需的音量级别。

在语音识别中的应用
我们的方法也可以作为预处理程序应用于语音识别和自动视频字幕添加。处理语音重叠的说话者对于自动字幕添加系统来说很有挑战性,将音频分离为不同的来源可以帮助生成更加准确、易读的字幕。

我们的项目网页提供了更多结果,以及此技术与较先进的纯音频语音分离和近期其他视听语音分离工作的对比情况。事实上,随着深度学习领域近期不断取得进展,学术界对视听分析的关注显著增加。在我们进行本研究的同时,其他机构也纷纷进行了不同的研究,例如,加州大学伯克利分校的一项研究分析了如何使用自我监督的方法来分离画面内/外说话者的语音,MIT 的一项研究则解决了如何分离屏幕上多个物体(例如乐器)的声音,同时定位发出声音的图像区域这一问题。

我们认为这项技术的应用前景十分广阔。我们目前正在探索如何将此技术整合到各种 Google 产品中。敬请期待!

Looking to Listen 项目网页:

https://looking-to-listen.github.io/ 

致谢
本文介绍的研究由 Ariel Ephrat(实习生)、Inbar Mosseri、Oran Lang、Tali Dekel、Kevin Wilson、Avinatan Hassidim、Bill Freeman 和 Michael Rubinstein 共同完成。我们要感谢 Yossi Matias 和 Google Research Israel 对项目的支持,以及 John Hershey 提供的宝贵意见。我们还要感谢 Arkady Ziefman 在动画和人物方面提供的帮助,感谢 Rachel Soh 帮助我们获取文中所用视频内容的权限。

欢迎加入本站公开兴趣群
商业智能与数据分析群
兴趣范围包括各种让数据产生价值的办法,实际应用案例分享与讨论,分析工具,ETL工具,数据仓库,数据挖掘工具,报表系统等全方位知识
QQ群:81035754

鲜花

握手

雷人

路过

鸡蛋

相关阅读

最新评论

热门频道

  • 大数据
  • 商业智能
  • 量化投资
  • 科学探索
  • 创业

即将开课

热门文章

     

    GMT+8, 2018-8-17 05:16 , Processed in 0.160472 second(s), 23 queries .