“AI换脸拟声不当滥用成为违法侵权行为的重灾区”“一些喜欢我的影视剧的观众,被AI换脸视频骗得很惨,这个性质非常恶劣。”今年全国两会期间,雷军、靳东的“吐槽”,让AI在音视频领域的技术滥用、侵权现象再次引发关注。南都大数据研究院此前曾对“AI换脸拟声”问题进行调查,并发现有AI应用对声音克隆不设限,含有...
现在人们恐怕无法准确分辨AI和真人的区别,AI拟声被用于作恶也屡次发生。有媒体报道有人利用AI克隆声音进行电信诈骗,有人利用AI变声进行入室抢劫。但不可否认,也有人用AI拟声复活亲人,用来纪念。正如陈珊妮想要传递的,我们应该关心如果 AI 的时代必将到来,我们还可以做些什么。工具无论好坏,重要的是人如何使用。...
“如果不是做深度训练的话,目前换脸拟声的技术门槛是比较低的。”南京“超级头脑”工作室(一家AI工作室,主要经营“AI数字生命”业务)创始人张泽伟告诉记者,目前非技术人员也可以通过软件进行较为简单的换脸拟声,使得“假人假声”的合成视频、图片可能被用于违法违规用途,而一些年纪稍大的长辈很难分辨出来。北...
利用AI新型技术实施诈骗主要有“拟声”“换脸”两种手段,即通过模拟他人声音或形象骗取信任,进而诈骗钱财。 不法分子通常先以“网店客服”“营销推广”“招聘兼职”“婚恋交友”等为借口,通过微信、QQ、电话等方式联系消费者,采集发音、语句或面部信息。再利用“拟声”...
应对AI拟声“灰色地带”当AI语音克隆技术用于正当目的时,能帮助语音合成、语音翻译、语音恢复等。而值得关注的是,AI模拟声音如此逼真,若它用于非法目的,或将为伪造证据、欺诈勒索、电信诈骗等行为提供可能,引发一系列伦理及法律问题。今年3月,《卫报》澳大利亚版的一位记者表示,使用人工智能做出自己的声音,能够...
AI拟声是指利用AI技术将文本或其他形式的信息转换为语音输出。不法分子通过骚扰电话录音等来提取某人声音,获取素材后再进行声音合成,从而可以用伪造的声音骗取目标人群。AI换脸诈骗 AI换脸是指利用AI技术将一张人脸图像替换到另一张人脸图像上,并保持原图像中其他部分不变。不法分子通过网络搜集获取人脸生物信息,...
近日,国家金融监督管理总局金融消费者权益保护局发布防范新型电信网络诈骗风险提示,将“AI换脸拟声”纳入其中,作为专门类诈骗。据介绍,AI换脸拟声类金融诈骗,多为不法分子以“网店客服”“营销推广”等为借口联系消费者,采集发音、语句或面部信息,之后利用“...
许清的说法正好呼应了去年北京互联网法院审理的全国首例AI声音侵权案。该案首次明确声音权益独立于录音制品著作权,未经许可将声音用于AI化处理属于违法,为AI技术应用中的人格权保护划定了法律边界。许清还补充道,目前所讨论的AI拟声侵权,更多的是基于侵权主体利用了特定声音的经济吸引力来“搭便车”,所以判定侵权的...
与郭先生的经历不同,AI诈骗手段远不止“换脸”和“拟声”,还出现了更加恶劣的敲诈手段——“一键去衣”技术。在山东威海,一名大学女生的普通照片被不法分子利用AI技术处理,生成了虚假的裸照。骗子随后以此敲诈女孩,威胁其支付大额钱财,否则就将照片公开。女孩受到巨大心理压力,甚至一度有轻生的念头。与此同时...
一、AI诈骗的介入方式及新骗局 1、AI拟声诈骗:原理:利用AI语音合成技术,将文字转换成高度逼真的语音,甚至可以模仿特定人的声音特征。手段:不法分子通过非法手段获取受害者的声音样本,再利用AI技术合成语音,通过电话、语音消息等方式进行诈骗。案例:冒充亲友、领导或公检法人员,以紧急事件为由要求转账或提供个人...