保护你的声音不被伪造

【字体: 时间:2023年11月29日 来源:AAAS

编辑推荐:

  由张宁领导的麦凯维工程学院的计算机科学家开发了AntiFake,这是一种保护录音不受未经授权的语音合成的工具。

  

生成式人工智能的最新进展刺激了现实语音合成的发展。虽然这项技术有可能通过个性化语音助手和增强可访问性的通信工具来改善生活,但它也导致了深度伪造的出现,在这种情况下,合成语音可能被滥用来欺骗人类和机器,达到邪恶的目的。

为了应对这种不断演变的威胁,圣路易斯华盛顿大学麦凯维工程学院(McKelvey School of engineering)计算机科学与工程助理教授Ning Zhang开发了一种名为AntiFake的工具,这是一种新的防御机制,旨在在未经授权的语音合成发生之前阻止它。11月27日,张在丹麦哥本哈根举行的计算机与通信安全协会会议上展示了AntiFake。

与传统的深度伪造检测方法(用于评估和发现合成音频作为攻击后缓解工具)不同,AntiFake采取了积极主动的立场。它采用对抗性技术,使人工智能工具更难以从录音中读取必要的特征,从而防止欺骗性语音的合成。代码是免费提供给用户的。

Zhang说:“反假软件确保当我们把声音数据放到网上时,犯罪分子很难利用这些信息合成我们的声音并冒充我们。”“该工具使用了一种对抗性人工智能技术,这种技术最初是网络罪犯工具箱的一部分,但现在我们正在用它来防御他们。我们只是把录制的音频信号弄乱一点,扭曲或干扰它,使它对人类听众来说仍然是正确的,但这对人工智能来说是完全不同的。”

为了确保AntiFake能够抵御不断变化的潜在攻击者和未知的合成模型,Zhang和第一作者Zhiyuan Yu (Zhang实验室的研究生)构建了一个一般化的工具,并对五个最先进的语音合成器进行了测试。AntiFake达到了超过95%的保护率,甚至对看不见的商业合成器。他们还让24名参与者测试了AntiFake的可用性,以确认不同人群都能使用该工具。

目前,AntiFake可以保护简短的语音片段,针对最常见的语音模仿类型。但是,张说,在与虚假信息的持续斗争中,没有什么可以阻止这个工具被扩展到保护更长的录音,甚至是音乐。

“最终,我们希望能够完全保护录音,虽然我不知道人工智能语音技术的下一步会是什么——新的工具和功能一直在开发中——但我确实认为,我们利用对手的技术来对付他们的策略将继续有效。”人工智能仍然容易受到对抗性扰动的影响,即使工程细节可能需要改变,以保持这一策略的制胜性。“


相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号