·元数据或与数字图像文件相关的信息,可以提供内容的基本细节,例如照片的拍摄时间和地点等。目前,许多科技公司都支持使用这项技术在其产品中对AI生成内容进行某种形式的标记。但在找到一个可靠的解决方案之前,事实核查只能靠人工审核来弥补不足。
·Witness的执行主任萨姆·格雷戈里认为,解决AI虚假信息的责任“需要落在那些设计这些工具、构建这些模型并发布它们的人身上。”目前社交媒体平台关于AI生成内容的条例还不够详细。
主流的AI生成工具如ChatGPT、DALL-E、Midjourney降低了创建虚假图像、视频和文本的难度和成本,使网络上的AI生成内容泛滥且难以分辨。为了让用户和平台区分内容真假及来源,谷歌、Adobe、微软等科技公司正在探索如何应对这个问题。
截至目前,微软将在两款应用中添加水印和元数据功能;Adobe开发了一种可以跟踪AI编辑的内容凭据工具;谷歌将在图片和文件中标记AI生成,并与Midjourney等合作。
然而,这些技术手段仍处于起步阶段,在找到可靠的解决方案之前,事实核查只能靠人工审核来弥补不足。随着AI生成内容产生的速度不断加快,许多专业事实核查者要审核的内容已经远远超过人类可能处理的范围。
为内容打上AI标签
欧盟执法机构“欧洲刑警组织(Europol)”的一份报告预测,到2026年,互联网上多达90%的内容可能是由AI创建或编辑的。反虚假信息平台NewsGuard表示,目前,已经有一些完全由AI生成的新闻信息网站出现,这些网站的数量比几周前增加了近三倍。
一个人工智能生成的标题出现在TNewsNetwork.com上,这是一个匿名运营的新闻网站,于2023年2月注册。
专家认为,一种使用元数据、水印等技术系统的新方法或许能够帮助用户辨别真假。元数据或与数字图像文件相关的信息,可以提供内容的基本细节,例如照片的拍摄时间和地点等。目前,许多科技公司都支持使用这项技术在其产品中对AI生成内容进行某种形式的标记,并努力让这些信息更加公开,以帮助用户判断内容的真实性。
例如,微软在其年度Build大会上发布了给AI生成的图片和视频添加水印和元数据的新功能,旨在标记内容的来源和生成方式。这项功能将在未来几个月内在微软的Designer和Image Creator两款应用中推出。
此外,设计工具开发者Adobe的内容真实性倡议组开发了一种名为内容凭据的工具,可以跟踪图像何时被AI编辑。Adobe将其描述为一个标签,无论文件发布或存储在哪里,该标签都会随文件一起保存。例如,Photoshop的最新功能Generative Fill使用AI在现有图像中快速创建新内容,内容凭据可以跟踪这些更改。
Adobe内容真实性倡议组高级主管安迪·帕森斯(Andy Parsons)说,“首先要知道这是什么,在有意义的情况下,谁制造了它或它来自哪里。”
谷歌在其I/O 2023开发者大会上也表示,未来几个月内,谷歌图片的AI生成结果下方将会附上类似于版权声明的书面披露。此外,谷歌还将在其AI系统生成的图像文件中标记元数据。即用户在谷歌搜索中看到一个由谷歌AI系统生成的图像时,它会在下方显示类似于“由谷歌AI生成”的字样。与此同时,该公司宣布,它将与Midjourney和摄影图片网站Shutterstock等合作,让他们自行标记谷歌搜索中的AI生成图像。
此外,谷歌还在图像搜索结果旁边添加了一个“关于此图像(About this image)”的功能,无论它们是否有AI标签。用户只需点击即可看到谷歌首次索引这张图片的时间,它可能首次出现的地方,以及它在网上出现过的其他地方。谷歌搜索公共联络员 丹尼·沙利文(Danny Sullivan)指出,“这些工具未来将整合到谷歌搜索产品中,帮助人们更好地获取和理解相关信息。”
谷歌演示人们如何使用“关于此图像”获得更多的背景信息。
建立统一的开放标准
除了推出AI产品的科技公司之外,其他行业巨头也致力于如何给AI生成的内容贴上标签。2021年,包括微软、Adobe、BBC和英特尔在内的一些大公司共同创建了名为C2PA(Coalition for Content Provenance and Authenticity)的联盟,并制定了一个互操作的开放标准,让各个公司能够共享媒体的来源或所有权历史。
例如,一个新闻媒体的摄影师可以标记一张特定图片拍摄的时间、拍摄者,并让出版商对其进行数字签名。之后,编辑可以对照片进行修改,再次签名并盖上经过C2PA 标准验证的真实性印章。这样,你就知道这张照片是由一个人拍摄的,而不是由AI生成的,并且知道谁在何时对其进行了编辑。该技术使用密码学来保护敏感信息的隐私。
C2PA于去年1月发布了第一个开放标准,此后,Adobe和微软相应宣布将C2PA标准集成到其产品中,比如微软的Image Generator和Designer,而Adobe则在其新的AI Firefly产品的内容凭证中使用C2PA标准。
“你现在能够了解一件数字内容从始至终的来源和变化。”数字内容信任平台Truepic也是C2PA的成员之一,该公司的公共事务和影响力执行副总裁穆尼尔·易卜拉欣(Munir Ibrahim)表示。
易卜拉欣称,C2PA组织正在探讨是否要对内容证明的显示方式进行统一规范。未来,C2PA证明可能像浏览器窗口里URL旁证明链接安全的小锁标志一样,用户在看到拟定的C2PA图标时,就能知道他们看到的图像已经通过了来源验证。
目前,是否采用C2PA标准由公司自行决定,并按照他们的意愿标记经过验证的内容。“最大的挑战是我们需要更多的公司加入这个标准。”易卜拉欣说。
除了元数据标签之外,另一种方法是让AI系统在内容上添加可见的水印。例如OpenAI在DALL-E图像底部添加彩虹条。该公司表示,它也正在为文字生成工具ChatGPT开发一种水印版本。然而,相较于元数据标签,水印很容易被移除。
此外,许多公司也采用事后检测AI生成内容的技术。今年1月,OpenAI发布了一个工具,让用户交叉检查一段文本,确定它是否由AI生成。但根据OpenAI自己的评估,这个工具并不完全可靠,只能正确识别评估中26%的AI生成文本。
面临艰巨挑战
对于自动识别AI生成内容的技术平台来说,这只是起步阶段。在找到一个可靠的解决方案之前,事实核查只能靠人工审核来弥补不足。例如,5月30日,推特曾发表公告称采用众包事实核查的方法鉴别AI生成的虚假信息。
人权与公民新闻网站Witness的执行主任萨姆·格雷戈里(Sam Gregory)称,虽然像添加水印这样的AI识别技术方案很有前途,但许多事实核查者仍然担心在此期间AI可能带来的虚假信息的猛烈袭击。事实上,许多专业事实核查者要审核的内容已经远远超过人类可能处理的范围。
“一个人是否会因为他无法识别一张AI生成的图片而受到指责?或者一个事实核查者是否会被这种巨大的审核内容数量压垮?”格雷戈里认为,解决AI虚假信息的责任“需要落在那些设计这些工具、构建这些模型并发布它们的人身上。”
此外,格雷戈里认为,目前社交媒体平台关于AI生成内容的条例还不够详细。
TikTok于2023年3月修订了关于“合成内容”的最新规定,称平台允许AI合成内容,但如果它显示了真实场景,图像必须用字幕、贴纸或其他方式明确披露。但该平台不允许合成内容包含任何非公共人物或18岁以下人士的肖像。TikTok表示,它与行业非营利组织Partnership on AI等外部组织合作,就遵守负责任的AI实践框架提供反馈。
“虽然我们对AI为创作者提供的创意机会感到兴奋,但我们也坚定地致力于为其安全和透明使用制定保护措施。”TikTok发言人在一份声明中说,“与我们行业中的大多数人一样,我们将继续与专家合作,监测AI识别技术的进展,并不断调整我们的方法。”
除了TikTok,许多其他平台的政策可能也需要一些更新。目前,Meta(拥有Facebook和Instagram)和YouTube都只有关于防止AI生成内容误导用户的一般规则,但没有澄清哪些用途是可以接受或不可以接受的。
“AI超越了任何个人、公司或国家的范畴,需要所有利益相关者的协作。”Meta在一份声明中说,“我们正在积极监测新的趋势,并努力调整现有的监管方法。”
完全鉴别AI生成内容的方法可能不会很快到来。目前,这些标记AI生成内容的新工具仍处于早期阶段,但可以帮助降低风险。从技术上讲,水印或元数据能够被篡改。而且并非所有AI生成系统都愿意披露它是AI生成的。此外,人们往往会忽视事实真相,而选择相信符合他们个人信仰的谎言。
因此,要知道这些AI标签能否改变人们的想法,需要更多的研究。“有时,标签并不像预期的那样起作用。”纽约大学的约书亚·A·塔克(Joshua A. Tucker)认为,“我们需要测试这些解决方案,看看它们在遇到误导性的AI内容时是否能够改变人们的想法,以及披露什么内容才能产生影响。”