无障碍链接

中国时间 12:11 2024年11月23日 星期六

硅谷正在应对最新的数码威胁


VOA英语视频: 硅谷正在应对最新的数码威胁
请稍等

没有媒体可用资源

0:00 0:03:47 0:00

VOA英语视频: 硅谷正在应对最新的数码威胁

莱娅公主再生,或者罗伯特·德尼罗重返青春,这些都是影迷们的美好幻想,可是有人担心同样的技术可能被用作武器,在大选中制造混乱。因此,社交媒体发起了抵制“人工换脸技术”Deepfakes的运动,和开发识别工具的竞赛。

“我们进入了一个这样的时代,我们的敌人可以让任何人在任何时候说任何话。”

自从2018年演员乔丹·佩利模拟奥巴马总统讲话以来,真假之间的界限变得更加模糊。

Deepfakes利用人工智能综合不同影像,制造出一个令人深信的虚构影像。

现在,这种迅速发展的技术已经唾手可得,而且很快会欺骗最有经验的观众。

这个问题在总统大选年引起了警觉。

美国会众议院情报委员会主席亚当·希夫说:“所谓的人工换脸技术可以让有恶意的人煽动混乱、分裂和危机。他们可以破坏整个选举,包括总统大选。”

社交媒体公司发出了一连串通知,表示将清除用来欺骗选民的人工换脸影像。

可是他们首先要找到这些影像,因此,设计识别换脸技术的数码武器竞赛正在展开。

汉尼·法里德是加州大学伯克利分校数码取证专家,他担心在大选的最后关头会受到换脸技术攻击。

法里德说:“你可以想象到的一种攻击方式就是在大选之夜,或者初选前48或者24小时,公布一则对候选人有破坏性的视频,让他们说他们从来没有说过,或者伤害人甚至非法的话。”

法里德的团队正在训练人工智能软件来截获人工换脸影像。他们向软件输入每个总统候选人长时间的视频,让软件了解他们的独特举止。

法里德说:“我们取一段视频,跟踪面部表情。这个蓝色盒子告诉我们他头部的三维转动,眼部的绿色镭射告诉我们他看的方向,然后我们可以利用这些举止来区分这是某个人的换脸技术还是真实视频。”

法里德说:“我们希望让主流媒体记者都拥有这个技术,然后在视频播放时辨别是否真实。”

人工智能基金会也加入了识别真伪的努力。

人工智能基金会德利普·劳说:“这个模型可以识别这段录像的哪个部分被篡改过。”

这家旧金山技术公司建立了他们认为有用的人工智能人物。“很快我就可以跟你形影不离。”

就像这个人工智能人物迪帕克·乔普拉,不过他们必须同时公布识别工具。

劳说:“我们希望识别我们创造的各种技术的潜在危险。”

由于没有一个单一方法可以鉴别人工换脸技术,这个基金会正在发起一个叫做现实保卫者的平台,综合很多研究机构的鉴别工具,让公众使用。

劳说:“这是我们的曼哈顿项目,打击错误消息,因为这个项目需要来自多元化背景的人合作。”

网上媒体的消费者在制止错误信息扩散问题上也有着重要作用。

脸书禁止人工换脸技术,可是仍然允许效仿者,比如去年广泛传播的被篡改过的国会议长佩洛西讲话。

法里德说:“你们消费者要对看到和你传播的内容更加敏锐。”

未来,保护真实要靠我们每个人。

VOA卫视最新视频

时事大家谈:中国就业供需失衡,毕业生怎么办?
请稍等

没有媒体可用资源

0:00 0:20:40 0:00

美国之音中文节目预告

  • 7/23【时事大家谈】拜登退选中国网民热议 “把他赶下台”影射习近平?拜登退选牵动美外交政策 下届总统恐对中更强硬?嘉宾:美国“信息与战略研究所”经济学者李恒青; 美国《当代中国评论》国际季刊主编荣伟;主持人:樊冬宁

XS
SM
MD
LG