2024-07-24 16:50来源:本站编辑
一个穿着灰棕色衬衫的女人坐在一个男人旁边,看起来像是在专心地听着镜头外的人说话。她双臂交叉放在桌子上,但还有第三只手臂,穿着格子衣服,支撑着她的下巴。
去年夏天,当选民们翻看多伦多市市长候选人的竞选纲领时,看到了一个神秘的三臂女子的形象,他们不禁大吃一惊。
很明显,安东尼·富里的团队使用了人工智能——在许多公众的窃笑中,他们证实了这一点。
这场混乱是人工智能如何在加拿大政治中发挥作用的一个引人注目的例子。
但它也可以以更微妙的方式发挥作用。一份新报告的作者说,如果没有任何适当的规则,我们就不会知道它被使用的全部程度。
渥太华大学(University of Ottawa)教授伊丽莎白•杜波依斯(Elizabeth Dubois)表示:“我们仍处于早期阶段,我们正处于一个奇怪的时期,既没有关于人工智能披露的规定,也没有关于生成式人工智能使用披露的规范。”
“我们不一定知道正在发生的一切。”
在周三发布的一份报告中,杜波依斯概述了人工智能在加拿大和美国的应用方式——用于民意调查、预测选举结果、帮助制定游说策略,以及在竞选期间检测社交媒体上的滥用帖子。
生成式人工智能,即可以创建文本、图像和视频的技术,随着OpenAI在2022年底推出的ChatGPT而成为主流。
许多加拿大人已经在日常生活中使用这项技术,它也被用来制作政治内容,比如竞选材料。去年在美国,共和党发布了首个人工智能生成的攻击广告。
有时候很明显是使用了人工智能,比如这个有三条胳膊的女人。
报告称,当阿尔伯塔党在2023年1月在网上分享了一名男子的支持视频时,社交媒体上的人们很快指出他不是一个真人。它被删除了。
但杜布瓦说,如果内容看起来是真的,那就很难追踪了。
她说,在人工智能的使用和披露方面缺乏既定的规则和规范是一个“真正的问题”。
“如果我们不知道发生了什么,那么我们就无法确保它以支持公平选举和强大民主的方式发生,对吗?”
斯坦福大学以人为本的人工智能研究所的研究经理内斯特·马斯雷也认为,这种担忧是“完全合理的”。
人工智能可能在选举中造成真正伤害的一种方式是通过深度假视频。
深度造假(Deepfakes),或伪造视频,使其看起来像是名人或公众人物在说一些他们没有说过的话,已经存在多年了。
Maslej列举了一些引人注目的例子,比如美国前总统奥巴马发表贬损言论的假视频,以及乌克兰总统泽伦斯基向俄罗斯投降的假视频。
他说,这些例子“发生在过去,当时技术还不够好,能力也不够强,但技术只会继续变得更好。”
Maslej表示,这项技术正在迅速发展,新版本的生成式人工智能使得分辨图像或视频是否为假变得更加困难。
他指出,还有证据表明,人类很难识别合成音频。
“以前,深度假声音往往会让很多人犯错误。”
Maslej指出,这并不是说人工智能不能以负责任的方式使用,但它也可能被用于恶意的竞选活动。
他说,研究表明,“建立人工智能虚假信息管道相对容易,成本也没有那么高。”
并非所有选民都同样脆弱。
Maslej指出,不熟悉这些技术的人可能“更容易被混淆,把一些实际上是假的东西当成真的。”
他说,设置护栏的一种方法是使用水印技术。它会自动标记人工智能生成的内容,这样人们就不会把它误认为是真实的。
无论决策者决定采取何种解决方案,“现在是采取行动的时候了,”Maslej说。
“在我看来,加拿大政治中的情绪有时变得更加棘手和敌对,但你希望所有参与者都能理解,像人工智能虚假信息这样的东西会给每个人带来更糟糕的氛围。”
他说,现在是时候让政府机构识别人工智能在选举过程中可能带来的风险和危害了。
“如果我们等待,我不知道,某种对(总理)特鲁多的深刻理解导致自由党在选举中失败,那么我认为我们将打开一个非常肮脏的政治蠕虫罐头。”
杜布瓦说,加拿大现有法律已经涵盖了人工智能的一些恶意使用。
例如,根据选举法,使用深度造假视频冒充候选人已经是违法的。
她说:“另一方面,有一些潜在的用途是新颖的,或者不符合现有规则的范围。”
“因此,在我们弄清楚这些工具可能被使用的范围之前,最初确实必须是一种具体情况具体分析的基础。”
本报告由加拿大新闻社于2024年2月1日首次发表。