陈根:亚马逊Alexa的AI声音合成新功能,带来风光也带来风险

专栏号作者 陈述根本 / 砍柴网 / 2022-06-30 21:30
"
亚马逊对Alexa语音助手的升级,让其可以模拟任何人的声音,技术的美好是显然的,但同时也不可回避技术背后的挑战和风险。

文/陈根

6月23日的消息,亚马逊准备让Alexa语音助手模拟任何人的声音,然后通过Echo音箱来控制家庭的智能家居系统。

这个技术的背后就是基于人工智能,也就是说,我们只要对亚马逊发Alexa语音助手说上一段话,然后系统就能根据我们上传的语音建立识别,并且还能根据我们的语音来合成模拟我们声音的人声。

为了证明这项技术的成熟性与可应用性,在会议上,亚马逊还演示了新功能。在一段视频中,一位孩子问Alexa能不能用奶奶的声音读完《绿野仙踪》,Alexa确认指令,修改声音,然后以平缓的速度朗读,声音与真人无异,没有机械化的感觉。

亚马逊高级副总裁罗希特·普拉萨德(Rohit Prasad)说,在大流行期间许多人失去至爱,新功能能让记忆持续下去。亚马逊另一位高管透露说,目前Alexa在全球有1亿客户,这一数字与Alexa设备的销量保持一致。2019年1月Alexa设备正式开售。

亚马逊这项技术的发布,也带给我们非常重要的三点思考:

首先,是人工智能技术带来的司法挑战,也就是说,当人工智能可以模仿人类声音的时候,也将对当前的司法带来挑战。主要体现在如何处理合成语音的恶意证据,比如,一些人为了不当目的而借助于人工智能的真人声音合成系统,然后声称一些虚假的真人语音,并且提交于司法成为证据的时候,这就对我们的司法就带来的了挑战,必然增加了司法对于语音证据的技术鉴别工作量与难度;

并且,当人工智能的语音合成到达一定的程度时,就是普通的技术无法识别的情况下,就会对司法的公正性就会带来极大的困扰。尤其是基于人工智能“真人”模仿语音的再录音的情况下,会对当前的司法带来极大的挑战。

其次,人工智能技术带来的诈骗风险,就是这些人工智能合成的“真人”语音使用于电信诈骗中的时候,比如这两天发生的这个学习通数据在海外数据黑市被叫卖的情况。

当一些大学生的个人隐私数据被出售之后,如果这个数据中还有一些语音信息,或者说相关人员的对话语音信息的时候。这些语音对话信息被诈骗团伙获得,他们借助于大数据信息对于诈骗对象的信息进行相关的梳理,然后找到可以诈骗的点,再利用人工智能来合成声音与这个诈骗对象进行对话。

此时,对于一般的大众而言,尤其是对前沿科技领域没有关注的人员而言,是非常容易掉入诈骗陷阱的。当然从这个角度来说,一定要关注根哥的栏目,至少可以帮助大家了解新科技下的一些陷阱与危机。

最后,人工智能带来的安全风险,这个主要是两方面。一方面,是针对于当前的一些基于语音识别控制的系统与操作,尤其是通过个人声音作为控制与识别操作的系统与设备,在互联网云端上获取了,或者有预谋地获取到了一些特定对象的真人声音之后。然后利用人工智能的“真人”声音合成系统进行合成,再借助于这个合成的声音来控制这些系统与设备,这将会造成非常大的安全隐患;

另一方面,则是对于智能家居而言,也不是一个好的选择,当我们拦截了用户的声音之后,利用这个系统进行合成,然后再借助于黑客技术打开用户的控制端口,将这些控制语音上传上去。电影里的闹鬼事件可能就会成为可能,通过控制家庭的灯光,以及音响来进行恐怖灯光与声音的播放,将会给正常的人类生活带来巨大的困扰。

因此,面对于当前日趋成熟与智能的人工智能语音合成技术,面对于不断深入的智能设备应用,安全成为了科技公司,以及法律监管层面的重大议题。

声明:砍柴网尊重行业规范,任何转载稿件皆标注作者和来源;砍柴网的原创文章,请转载时务必注明文章作者和"来源:砍柴网",不尊重原创的行为将受到砍柴网的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至:post@ikanchai.com
您想第一时间获取互联网领域的资讯和商业分析,请在微信公众号中搜索"砍柴网"或者"ikanchai",或用微信扫描左边二维码,即可添加关注,从此和砍柴网建立直接联系。

相关推荐

热文导读

1
3