如何识别互联网上的人工智能操纵

AI假新闻造假

谎言、欺骗和操纵自古以来就伴随着人类。 随着大众媒体的出现,假冒制作者有机会接触到前所未有的广泛受众。

在互联网快速发展的时代,虚假信息呈现出新的表现形式。 网站、社交网络、图片板甚至传统媒体已成为传播虚假和操纵信息的平台。 在新技术时代——人工智能时代,情况可能变得至关重要。 或者说真相还有机会生存吗?

博格丹·卡明斯基谈论了错误信息如何传播、人工智能在这个过程中扮演什么角色,以及我们对未来的期望。

历史参考

虚假信息长期以来一直是政府和情报机构手中的武器。 这个问题在冷战期间变得尤为严重。 苏联和美国不惜操纵数据、干扰信息流动,试图玷污对方在本国公民心目中的形象。

柏林墙的倒塌似乎应该缓解紧张局势,但事实并非如此。 各国政府继续利用一切可用手段扭曲信息空间以满足其利益。

冷战的结束恰逢互联网的迅速普及,特别是在东欧。 随着审查机器的崩盘,大量信息涌入前社会主义阵营,普通公民越来越难以辨别真伪。

2000 年代中期社交网络的出现是造假和操纵演变过程中的一个新里程碑。 信息空间及其受众已大大扩展,如果没有仔细的事实核查,将可靠信息与虚假信息区分开来变得更加困难。

新的机会

人工智能与互联网同时发展,但其广泛引入日常生活的时间要晚得多。 延迟的原因之一是成本高昂以及对强大计算资源的依赖。

2022 年 11 月,当 OpenAI 发布 ChatGPT 供公众使用时,这种情况发生了巨大变化。 尽管基于 Transformers 的语言模型以前就已经存在,但正是基于 GPT-3 的产品才允许任何拥有智能手机的人访问现代聊天机器人。

ChatGPT 发布后,用户几乎立即开始探索其功能。 在人工智能的帮助下创建的虚假笔记、新闻、歌曲、诗歌和其他文本作品开始出现在网上。 幸运的是,该服务能够根据用户的请求在几秒钟内生成大量信息。

他们不仅仅局限于文本。 同样的 OpenAI 开发了一系列 DALL-E 图像生成器,可以创建逼真的图像。 尽管 Sam Altman 的工具尚未成交量入与虚假信息相关的丑闻,但竞争平台 MidJourney 和 Stable Diffusion 已经脱颖而出。

2023 年 3 月,据称教皇方济各穿着 Balenciaga 羽绒服走在街上的照片在互联网上引起了轰动。 事实证明,这些图片是使用人工智能生成的。

赝品、深度赝品和聊天机器人:如何识别互联网上的人工智能操纵教皇方济各穿着人工智能生成的 Balenciaga 羽绒服。 资料:福布斯。

教皇穿着时尚夹克的形象可能看起来是一个有趣且无害的事件。 然而,爱好者们更进一步,制作了美国前总统唐纳德·特朗普在警察护送下穿着囚服的照片。 这件事发生在这位美国前领导人即将受审的同一时间,因此这些假照片引起了广泛的抗议。

赝品、深度赝品和聊天机器人:如何识别互联网上的人工智能操纵由人工智能生成的唐纳德·特朗普被拘留的假图像。 数据:PetaPixel。

一些用户相信这些镜头的真实性,因为它们的超现实主义。 尽管假消息很快就被曝光,但虚假信息活动的真正后果很难评估。

在视频领域,情况有些不同。 尽管现代生成器还无法创建逼真的视频,但 Deepfake 技术在这个场景中早已存在,可以让你用另一个人的脸替换另一个人的脸,或者让他说出他实际上没有说过的话。

最早在互联网上引发热议的高调深度造假项目之一是 2017 年发布的“综合奥巴马”计划。 她修改了美国前总统巴拉克·奥巴马的一段视频,让他在单独的音轨中讲话。

后来,这项技术被用于各种目的——从色情深度假货到信息和心理操作。

攻击者主动伪造音频和声音以冒充其他人。 例如,2021年,诈骗者伪造了阿联酋一家大公司负责人的演讲,并利用其窃取了3500万美元。

假选票也已被用于虚假信息宣传活动。 2024年初,正值美国大选最激烈的时期,新罕布什尔州居民接到了总统乔·拜登打来的奇怪电话。 他的合成声音敦促选民不要在即将到来的初选中投票给他。

事实证明,这些自动电话是假的,是拜登党内竞争对手的政治策略师为了影响初选结果而制造的。 结果,人工智能通话在美国被禁止,州检察官办公室以试图干涉选举进程为由立案刑事立案。

当今人工智能驱动的威胁行为者得到了先进技术的极大帮助。 聊天机器人可以轻松生成文本,Stable Diffusion 和 MidJourney 可以轻松伪造图片,ElevenLabs 等平台可以从简短的示例中创建合成声音。 而这一切都不需要深厚的技术技能。

行业如何应对人工智能造假

现代人工智能工具的出现使该行业处于非常尴尬的境地。 开发人员因创建允许任何人无需太多努力即可生成引人注目的内容的服务而受到批评。 因此,大型企业正在寻求采取限制措施来防止操纵。

OpenAI 和这家初创公司的主要投资者微软已经安装了过滤器,以防止生成某些主题的内容。 例如,如果系统怀疑用户的操纵意图,ChatGPT 将拒绝创建有政治偏见或历史不准确的材料。 反过来,DALL-E 也不会生成公众人物的图像。

所有这些过滤器,可能还有其他过滤器,都迁移到了 Microsoft 产品:基于 OpenAI 模型构建的 Bing、Copilot 和 Designer。

谷歌还采取措施打击操纵和错误信息内容。 2022 年底,该公司发布了指导方针,明确指出人工智能生成的文本被视为垃圾邮件。 搜索引擎及其算法主要关注人们撰写的高质量文本。

此外,该公司在 2023 年宣布了一款可以在搜索中标记人工智能图像的工具。 目前尚不清楚它将如何工作,因为许多图像没有水印或元数据来识别它们。 如果生成器添加标签,则可以轻松删除它们。

谷歌旗下的 YouTube 也向人工智能内容宣战。 2024 年,该公司要求作者标记他们的作品是否涉及使用人工智能技术的显式操纵。 否则,此类内容将面临被删除的威胁。 然而,如果创作者忽视平台的要求,YouTube 计划如何识别带有人工智能素材的视频,目前仍不清楚。

一般来说,科技巨头早在 2021 年就创建了内容验证和真实性联盟 (C2PA)。 其目标是向人工智能内容添加标签,以便识别此类照片和视频。

Meta 也有自己的 AI 内容分发方法。 继宣布推出自己的 Imagine 生成器之后,该公司推出了标记系统,并且该工具的所有作品都将添加水印。 不过,Meta 随后表示,它将把这个标签添加到所有其他模型创建的 AI 图像中。

大部分责任将落在出版物作者身上,但该公司并未排除强行标记人工智能内容的可能性。 只是标记它,而不是删除它。 Meta 承诺不会滥用其删除以任何方式违反其有关人工智能内容规则的内容的权利。

前面提到的ElevenLabs,其产品被用来制造拜登的深度伪造品,也禁止使用公众的声音进行克隆。 总的来说,该平台的规则已经禁止未经许可使用第三方数据,但与美国总统的事件表明该公司对此没有足够的控制力。

MidJourney 已成为创建穿着巴黎世家 (Balenciaga) 的教皇和穿着囚服的特朗普的表情包的工具,它已禁止使用有关政客的提示,以防止用户生成看似合理的假货。 该公司负责人戴维·霍尔茨指出,他本人喜欢模仿美国前总统,但从错误信息传播的角度来看,这可能是危险的。

赝品、深度赝品和聊天机器人:如何识别互联网上的人工智能操纵MidJourney 为查询“假新闻”生成的图像。 数据:ForkLog。

然而,随着人工智能算法的发展,开发者控制可操作内容的产生将变得更加困难。 Stable Diffusion 和 Meta Llama 2 等工具已经可以在用户设备上本地运行,并不受任何限制地生成材料。

在这种情况下,就需要创建AI内容标识符,但即使在这里也不是那么简单。 例如,OpenAI 的一款专为识别人工智能文本而设计的产品,由于无法完成其任务而被关闭。 一般来说,该工具更常将人类文本识别为人工智能生成的文本,而不是一般的人工智能文本。

人工智能本身就是错误信息的来源

成为操纵和虚假信息的受害者并不需要攻击者的干预。 由于所谓的“幻觉”效应,AI本身可能会误导用户。

简而言之,“语言模型幻觉”是算法“编造”实际不存在的信息的能力。 事实上,大型语言模型并不像人类那样思考。 这只是一个先进的预测引擎,它寻找文本中的模式并尝试生成最合理的结果。

ChatGPT、Copilot、Gemini 和 Grok 等聊天机器人显然容易产生幻觉。 这导致他们编造统计数据、事实和历史事件。

最近的一个例子是聊天机器人 Grok 根据 X 中的帖子生成的一篇新闻文章。它声称公众“对太阳的奇怪行为感到震惊”并且“科学家无法解释正在发生的事情”。 我们正在谈论 2024 年 4 月 8 日的日食。 最有可能的是,聊天机器人认真对待了《X》中的笑话“太阳去哪儿了”,而科学家实际上非常了解日食的本质。

赝品、深度赝品和聊天机器人:如何识别互联网上的人工智能操纵聊天机器人 Grok 生成了有关 4 月 8 日日食的假新闻。 数据:Gizmodo。

重要的是要了解聊天机器人不是搜索引擎,您不应该相信它的话。 如果您使用此类工具进行研究,对模型结果进行额外的双重检查将很有用。

NVIDIA 首席执行官黄仁勋给出了一个建议,可以帮助你避免成为 AI 幻觉的受害者。 他建议使用新闻方法来验证信息:

  • 检查来源和背景;
  • 将来源中包含的事实与已知事实进行比较;
  • 如果答案不正确 – 即使部分不正确 – 丢弃整个源并继续下一个。

如何避免落入AI操纵的陷阱

既然企业和探测器还无法准确识别人工智能造假,这是否意味着一切都失败了? 一点也不。 与往常一样,避免被人工智能内容操纵的最佳方法仍然是批判性思维。

正是由于“人类智慧”,大多数假货才被消除。 质疑社交媒体上的任何信息非常重要。 你见过穿着巴黎世家夹克的教皇吗? 查看互联网上的梵蒂冈官方页面。

长期以来,事实核查一直是揭穿错误信息的主要工具之一。 这也适用于人工智能操纵。 此外,主要媒体的事实核查团队越来越多地参与检查人工智能操纵的内容。

还可以使用许多工具来检查内容是否存在人工智能干扰。 对于文本,可以使用免费的 GPTZero 或 Detecting-AI,对于图像,可以使用由 Hugging Face 提供支持的 Maybe 的 AI 艺术探测器。 它们的工作效果并不完美,但它们可以让我们深入了解所提供的内容中是否存在使用人工智能的迹象。

如果没有人工智能,网上就有足够多的操纵和虚假信息。 公众人物经常被引用说一些他们没有说过的话,经过处理的文件被传播,等等。

当然,人工智能将在增加互联网假货数量方面发挥巨大作用,如果它还没有发挥作用的话。 然而,容易上当受骗的人很可能会被假货愚弄,就像科技繁荣之前发生的那样。

但事实核查人员肯定还有更多工作要做。

在社交网络上订阅 ForkLog

发现文本中有错误? 选择它并按 CTRL+ENTER

ForkLog 时事通讯:随时掌握比特币行业的脉搏

资讯来源:由0x资讯编译自FORKLOG。版权归作者ForkLog所有,未经许可,不得转载
提示:投资有风险,入市需谨慎,本资讯不作为投资理财建议。请理性投资,切实提高风险防范意识;如有发现的违法犯罪线索,可积极向有关部门举报反映。
你可能还喜欢