当前位置: 灰狼 >> 灰狼的天敌 >> 这个故事从狼外婆开始讲起
骗过小红帽的“森林魔法”:
“DeepFake深度伪造”
大灰狼之所以能够轻易骗过小红帽,是基于神奇的“森林魔法”——“DeepFake深度伪造”,由“Deeplearning”(深度学习)和“Fake”(伪造)结合而成的新单词,也就是我们熟知的“AI换脸术”和“语音合成术”。
“深度伪造”是一种利用深度学习算法,基于人工智能的人体图像合成技术。它能“以假乱真”,不仅伪造照片,还能实现换脸、模仿真人语言和动作,创造出不存在的人物及活动。
早在年12月,“AI造假视频”的技术就已经出现。国外某论坛的用户“DeepFakes”,将国外女明星与与色情影片合成,所合成的视频以假乱真,引发巨大争议。因此,其用户名“深度伪造”也成为这一技术的代称。
当“眼见”不再为“实”
“耳听”也为“虚”
AI技术在音视频领域中的应用
究竟是人类的帮手
还是隐藏的危险?
点一点手机,轻松“换脸”
前段时间,几乎一夜之间,社交软件被一款AI换脸APP刷屏。人们纷纷晒出自己换脸后的照片、短视频,堪称史上最大规模的“戏精爆发”。演出天下好戏,变身仅需一部手机、一张照片。
有变身“潮人”的↓
还有将明星的脸进行“移花接木”的↓
△杨幂版黄蓉
△徐锦江版短发雷神
通过“换脸术”
用户可以随时代入
任何影视剧情中
满足自己的明星梦
想伪装成另外一个人?
只需点一点手机。
“换身体”技术相继而至
而更可怕的是,继AI换脸技术之后
又出现了一项类似技术——换身体
只需一张高清照片
就能炮制视频
甚至都不需要对方任何影像资料!
对于AI的轻松“换脸”
网友也表示了担忧↓
事实上,从“换脸”技术面世开始,人们就开始对它所可能带来的巨大危险深表担忧。
第一重危险
用户隐私安全得不到保障
基于AI音视频技术的APP采集到了如虹膜、指纹、声音等丰富的个人信息,一旦被恶意利用,会危害到公民隐私和财产安全。
第二重危险
危险
版权疑虑与监管缺位
众多视频模版涉及公众人物、影视音乐作品的版权问题;用户也可能在二次传播中逾越法律红线,如有人直播换成明星脸骗刷礼物、制作情色视频牟利等;伪造重要公共人物视频,别有用心地制造混乱的行为。
今年9月,针对“AI换脸”等新技术如何监管的问题,国家网信办副主任刘烈宏就曾表示:国家网信办已经会同有关部门制定出台了《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》《个人信息安全规范》等法规标准,正在制定《网络生态治理规定》。通过这些法规标准,国家网信办将指导督促互联网企业开展安全评估,监管上线的新技术、新应用。
11月30日,国家互联网信息办公室、文化和旅游部、国家广播电视总局联合印发《网络音视频信息服务管理规定》,其中针对深度学习、虚拟现实等新技术明确,明年1月1日起:
网络音视频信息服务提供者基于深度学习、虚拟现实等新技术新应用上线具有媒体属性或者社会动员功能的音视频信息服务,或者调整增设相关功能的,应当按照国家有关规定开展安全评估。
网络音视频信息服务提供者和网络音视频信息服务使用者利用基于深度学习、虚拟现实等的新技术新应用制作、发布、传播非真实音视频信息的,应当以显著方式予以标识。
网络音视频信息服务提供者和网络音视频信息服务使用者不得利用基于深度学习、虚拟现实等的新技术新应用制作、发布、传播虚假新闻信息。转载音视频新闻信息的,应当依法转载国家规定范围内的单位发布的音视频新闻信息。
网络音视频信息服务提供者应当加强对网络音视频信息服务使用者发布的音视频信息的管理,部署应用违法违规音视频以及非真实音视频鉴别技术,发现音视频信息服务使用者制作、发布、传播法律法规禁止的信息内容的,应当依法依约停止传输该信息,采取消除等处置措施,防止信息扩散,保存有关记录,并向网信、文化和旅游、广播电视等部门报告。
网络音视频信息服务提供者应当建立健全辟谣机制,发现网络音视频信息服务使用者利用基于深度学习、虚拟现实等的虚假图像、音视频生成技术制作、发布、传播谣言的,应当及时采取相应的辟谣措施,并将相关信息报网信、文化和旅游、广播电视等部门备案。
不畏惧技术
但要合理应用
不过,也不需要过分畏惧AI新技术。
在医疗领域,利用AI技术,可以更好地提高医学影像采集效率与图像质量,实现更准确的诊断与治疗。
“深度伪造”技术还可以为视频配音,轻松实现在多种语言随意转换。
通过“深度伪造”,还可以增加老照片的分辨率,模糊的珍贵老照片一键变“高清”↓↓↓
《网络音视频信息服务管理规定》中所说的“不得随意发”并不意味着“不能发”。“随意发布”AI造假音视频的后果不堪设想,但是造福社会的相关技术成果是值得推崇的。
AI技术在音视频领域中的规范应用,不仅关乎个人隐私、司法公正,而且关乎国家和网络安全。
让眼见为实,耳听为真,
小红帽才能安心开门!