某号伪造刘德华声音,官方提醒避免落入 AI 语音合成骗局

2024-03-02 14:14:53

  电影公司映艺娱乐发布随着 AI 合成技术的不断发展,犯罪分子的诈骗手段也在与时俱进。

  根据 McAfee 去年公布的报告,基于人工智能的语音诈骗日益猖獗,在接到诈骗电线% 的人会导致经济损失。

  由于 AI 语音克隆工具非常便宜且可用,因此恶意方可以快速轻松地创建语音克隆。他们获得样本音频的方式是从人们在社交媒体上分享他们的声音。你在网上分享你的声音越多,威胁者就越容易找到并克隆你的声音。

下一篇:英伟达已成台积电第二大客户:去年支付77.3 亿美元、占比 11%
上一篇:微软发布财务版 Copilot:可加速对账、洞察数据
返回顶部小火箭