AI配音门槛低 易遭电骗滥用
发布 : 2025-6-30 来源 : 明报新闻网

用微信扫描二维码,分享至好友和朋友圈AI合成人声技术成熟,现在有很多应用程式能轻易「复制」一个普通人的声音,仅需上载一段数十秒声音主人的录音,稍等片刻即可。这种「声音复制」技术近年遭到电讯诈骗团伙滥用,全球各地有多名受害者表示,电话对面的声音和熟人一模一样。
年初的内地演员王星绑架案令东南亚电骗产业进入舆论焦点,泰国总理佩通坦1月表示,接到自称某国政要的语音信息,对方使用AI技术模仿该政要声线,起初并未让佩通坦起疑。据共同社报道,骗徒用AI合成人声冒充一间企业的社长,并伪造来电号码,电话指示下属向指定户口汇款。中国、美国、加拿大等多国均有报道称,不少长者接到声称孙辈索要钱财的电话,指向相同的作案手法。
专家倡预判AI影响
据新华社报道,网上有大量手机应用程式能AI合成声音,下载量超千万。清华大学新闻与传播学院教授沈阳表示,AI技术的普及让普通人也能「复制声音」。中国科学院科技战略谘询研究院院长潘教峰认为,需要提前预判AI技术应用可能带来的社会影响。