OpenAI已将公司置于红色警戒状态,警告他们在开发语音引擎解决方案的过程中,是时候放弃语音认证了。
语音引擎是一种语音克隆工具,可以生成与原始说话者“非常相似”的自然语音。
现在,它可以预览,但OpenAI选择推迟总体发布,以“增强社会韧性”,对抗越来越令人信服的生成模型。
在其网站上一篇未经授权的博客文章中,OpenAI深入探讨了细节,指出:
“我们鼓励逐步取消基于语音的身份验证,将其作为访问银行账户和其他敏感信息的安全措施。”
大型语言模型(LLM)的先驱还鼓励企业加快开发和采用追踪视听内容来源的技术。
最后,OpenAI给出了更一般的建议,其中包括教育公众更好地理解“欺骗性的人工智能内容”,并调查保护个人在人工智能中使用声音的政策。
虽然这样的建议可能会敲响许多警钟,但OpenAI的目标是走在曲线的前面。
“重要的是,世界各地的人们都要了解这项技术的发展方向,无论我们最终是否自己广泛部署它,”博客继续说道。
“我们期待着继续与政策制定者、研究人员、开发人员和创意人员就合成声音的挑战和机遇进行对话。”
就客户体验而言,正如与“一小群值得信赖的合作伙伴”一起推出的语音引擎的早期应用程序所表明的那样,这些机会意义重大。
例如,它通过听起来自然、情绪化的声音提供阅读帮助。这样的应用程序可能有助于支持易受攻击的客户。
此外,还有其他用例,如翻译内容和支持非语言人员,这可能会激发CX创新者的想象力。
除了客户体验之外,帮助患有突发或退化性语音疾病的患者恢复声音等应用程序也令人难以置信地兴奋。
尽管如此,合成语音已经是一种日益严重的威胁,OpenAI的警告令人震惊地提醒人们,它对企业构成了威胁,更不用说对更广泛的社会了。
合成语音:日益增长的威胁
就在OpenAI宣布语音引擎的两周前,CX Today分享了关于欺诈者如何利用合成语音攻击联络中心的新研究。
这项由Pindrop进行的研究发现,骗子已经在使用合成语音与自动化相结合的方法来绕过IVR认证步骤。
它还发现,欺诈者能够使用基于语音的deepfakes更改客户的电子邮件和家庭地址,这为欺诈提供了许多机会。
例如,攻击者可以访问一次性密码,或者在银行受到攻击的情况下订购新的信用卡。
最后,Pindrop发现,一些骗子已经开始使用他们的语音机器人来构建该公司IVR的克隆——这可能是欺骗客户的更广泛计划的一部分。
每个例子都引起了人们的关注,应该会激发所有企业内部的对话,包括那些尚未实现语音身份验证的企业。
毕竟,正如这些骗子的伎俩所表明的那样,没有任何企业可以免受合成语音的威胁。
合作伙伴:
友情链接:
立即咨询