最近几周,中国加大了对台湾1月13日总统和立法院选举的影响力度,一些专家指出了生成式人工智能带来的虚假信息活动的危险。这种人工智可以产生文本和其他类型的内容。
台湾人工智慧实验室(Taiwan AI Labs)创始人杜奕瑾(Ethan Tu)的公司使用生成式人工智能来识别和宣传社交媒体信息操纵趋势。他在周二(1月5日)接受美国之音(VOA)视频采访时表示,从长远来看,台湾必须加大力度,打击人工智能生成的即影响台湾人态度认知战。
以下是这段采访:
VOA:中国通过认知战干预选举对这次台湾选举的影响有多严重?
杜奕瑾:在今年的台湾大选中,网络信息操纵越来越严重,特定行为体使用的技巧也越来越圆熟。过去,很容易识别出发布大量类似评论的虚假中国账户,但在这次选举中,由于生成式人工智能的出现,这些账户开始区分自己的角色。他们发表的评论正变得越来越多样化。
确定所有这些网络水军帐户都在说同样的话变得更难了。生成式人工智能正在帮助扩大信息操纵的影响。台湾人工智慧实验室的团队正在观察与选举相关的新闻和在线用户对话,我们可以看到这些网络水军账户正在扮演什么角色。
例如,在今年的选举中,YouTube和TikTok上的短视频发挥着非常重要的作用。虽然这些视频有不同的剧本和演员,但它们谈论的是同一个话题。根据这些短视频,我们大概可以确定这些YouTuber制作的内容与中国官方媒体宣传的叙事一致。
这些YouTube频道的拥有者会假装中立,但当他们谈论视频中的事情时,他们会混入反映中国政府利益的信息。这些短视频中的信息往往是亲中国的,同时贬低日本和美国。他们把中国描绘成一个和平缔造者,同时将美国描述为将其他国家拖入战争。
我们在脸书(Facebook)上看到的另一种类型的帐户负责将这些视频传播到有影响力的社区。例如,两个特定的账户会在三位总统候选人的脸书账户下发表与中国官方媒体的叙述一致的评论。
这两个账号除了积极用中文普通话评论台湾大选相关议题外,还积极用英语传播信息,旨在增加公众对美国拜登政府的不信任。
在处理由生成式人工智能助力的信息操纵时,当你试图揭穿谣言时,生成式人工智能可能会使用当局试图放大的正确信息来制造更多谣言。台湾目前用于打击认知战的事实核查机制,已被证明在这种特殊情况下是无效的。
应对生成式人工智能造成的虚假信息活动的最佳方法是使用生成式人工智能技术来识别趋势。当相关活动激增时,研究团队应与公众分享相关信息。
在我看来,这些认知行动在这次选举中变得更有效,但透过台湾不同研究团队的努力,台湾的舆论可以对认知战的影响效果有更多的免疫力。
VOA:未来,中俄两国发起的认知战会更加普遍吗?
杜奕瑾:我的观察表明,社交媒体平台和生成技术正在成为威权国家影响人们自由意志的重要武器。总体趋势不容乐观。有些人曾经愿意在网上公开反对某些水军账户,但现在,这些人会受到网络水军账户的攻击,直到他们删除这些评论。
现在的情况比2018年和2020年还要糟糕。网上挑战认知战的评论较少,因为人们害怕挺身而出。另一方面,社交媒体平台上正在发生一些异常的审查制度。这就是为什么可信的媒体报道或相对中立和客观的人无法在社交媒体上发声的原因。
VOA:从长远来看,台湾应该如何建立有效的机制来应对这些挑战?
杜奕瑾:我们的团队了解如何使用生成式人工智能来防御生成式人工智能造成的认知战威胁。然而,由于资源有限,我们只能尝试教育其他团队如何应对这些挑战。这还不够。
作为世界上最早使用生成式人工智能来检测操纵生成式人工智能所创造信息的行为的团队之一,我们希望其他国际合作伙伴有兴趣为防止威权国家使用生成式人工智能影响世界各地的人们做出贡献,在民主国家之间建立联盟。
如果世界各国有兴趣这样做,台湾应该站出来分享我们的想法和经验。台湾应该与他们合作,研究可以用于对抗认知战行动的尖端技术。