2024年12月16日,美国信息技术与创新基金会(ITIF)发布文章《为什么AI生成的内容标签规定不够完善?》(Why AI-Generated Content Labeling Mandates Fall Short?),文章指出随着AI工具生成高质量内容能力的提升,政策制定者提议强制标记AI生成内容,但强制标记尤其是水印方式存在局限,如易被去除等。文章建议采用自愿标签、开展素养活动并制定针对性方案,以构建数字生态信任体系。
《为什么AI生成的内容标签规定不够完善?》
机构简介:美国信息技术与创新基金会(ITIF)成立于2006年,多次被公认为世界领先的科技政策智库。ITIF的使命是为世界各地的政策制定者提供、评估和推广政策解决方案,以加速创新和提高生产力,以刺激增长、机会和进步。
编译:汐之
全文摘要与关键词
1. AI生成内容标记的主要方法:数字水印+数字指纹+加密元数据
2. AI生成内容标记的政策推动:
①欧盟:2024年3月,欧盟正式通过《AI法案》;
②英国:2024年5月,英国上议院提出《人工智能法案》(未通过);
③中国:2023年1月10日,通过《互联网信息服务深度合成管理规定》;
④美国:美国拜登总统2023年的行政命令要求商务部制定AI生成内容的标记指南;2024年9月,美国管理和预算办公室发布《OMB M-24-18》备忘录;同月,加利福尼亚州签署《加州AI透明度法案》;2023年,参议院提出《AI生成内容咨询法案》(未通过)。
3. 标记方法的局限性:
①技术层面,AI标记方法在技术上易受操纵,且缺乏标准化;
②内容层面,AI标记方法无法识别人为虚假信息,难防知识产权侵权,难以改变深度伪造意图,易忽视人类创作有害内容而AI创作有益内容的情况;
③国际层面,不同国家对AI生成内容标记的政策要求不一致,导致全球范围内的监管碎片化。
4. 政策建议:采用适用于所有数字内容的信任标识+开展数字、AI和媒体素养宣传活动+针对特定问题制定解决方案。
5. 结语:通过水印对AI生成内容进行强制标记并非解决政策制定者所关注问题的有效方案,构建数字生态系统信任体系,营造良好环境,促进数字经济的繁荣发展。
对AI生成内容实施强制标记是治标不治本的方式。生成式人工智能(GenAI)的崛起,极大地丰富了数字内容的创作方式,为用户生产高质量的图像、文本、音乐和视频等内容提供便捷的工具。GenAI技术不仅拓展了创意边界,还显著提升工作效率,成为推动创新的重要力量。然而,GenAI的广泛应用也引发诸多担忧。例如,部分政策制定者担心其被恶意利用,如通过伪造内容传播虚假信息、侵犯知识产权、制作有害的深度伪造内容等 。为应对这些潜在风险,政策制定者提出对AI生成内容实施强制标记的要求,期望借此帮助用户区分人类与AI生成的内容。但本文认为,强制标记,尤其是通过水印方式实现,并非解决这些问题的合理有效方案。相反,政策制定者应将重点放在构建整个数字生态系统的信任体系上。
PART01
AI生成内容标记的主要方法
1.1 数字水印
数字水印技术是在AI模型生成的输出内容(如文本、音频、图像或视频)中嵌入独特信号。水印可分为可见和不可见两种,其中不可见水印需借助专用软件检测。数字水印存在明显局限,一方面,添加的数据量受限,过多会降低内容质量;另一方面,无论是有意还是无意的内容操作,都可能导致水印被移除,且现有水印技术难以抵御先进的去除手段。
1.2 数字指纹
数字指纹基于内容本身(如像素、视频帧、文本或音频波形)生成唯一代码,并与内容相关信息(如是否由AI生成、生成日期、生产者等)相链接。用户可创建内容指纹并与可信数据库比对,但当内容发生较大改变时,数字指纹可能失效,无法准确识别内容来源。
1.3 加密元数据
元数据包含内容的创建日期、创作者等信息,常嵌入图像、音频和视频等媒体文件中。加密元数据通过加密技术确保这些信息的完整性和真实性,用户可查看其内容。然而,元数据也可能因无意或故意行为被删除,影响对内容的溯源和验证。
PART02
AI生成内容标记的政策推动
标记AI生成内容旨在帮助用户识别此类内容,防止欺诈行为,遏制虚假信息传播,识别有害深度伪造内容,并区分AI生成与人类创作。
全球各地政策制定者纷纷提出多种强制AI标记的政策和举措:
欧盟:2024年3月,欧盟正式通过的《AI法案》要求AI系统提供商,包括生成合成音频、图像、视频或文本内容的企业,以机器可读的格式标记AI生成或修改的内容。提供商需采用“有效、可互操作、稳健且可靠”的技术解决方案,综合考虑内容类型特点、实施成本和最新技术标准,技术手段涵盖水印、元数据标签、验证内容来源和真实性的加密方法、日志记录机制及数字指纹等。
英国:2024年5月,英国上议院提出的《人工智能法案》虽未通过,但其中规定,提供AI产品或服务的企业需提供清晰明确的标记,包括真实性警告以及用户自行选择是否需对AI生成内容具有知情权。
中国:2023年1月10日通过的《互联网信息服务深度合成管理规定》要求服务提供商对AI生成的文本、图像和视频等内容添加水印,即使用“深度合成”技术创建或编辑的内容需带有可见标记。
美国:美国联邦和州层面均出台相关政策。美国拜登总统2023年的行政命令要求商务部制定AI生成内容的标记指南,AI公司据此开发标记和水印工具,供联邦机构采用;2024年9月,美国行政管理和预算办公室(OMB)发布《OMB M-24-18备忘录》,要求联邦机构在采购企业级工具时,供应商需实施水印、加密元数据等技术,以识别AI生成内容、链接创建模型并追溯其来源和编辑记录;2024年9月,加利福尼亚州签署《加州AI透明度法案》,法案自2026年1月1日起生效,要求月用户超百万的提供商提供免费检测工具、可见水印和不可见水印三项服务;2023年,参议院提出的《AI生成内容咨询法案》虽未通过委员会审议,但要求提供商在所有AI生成内容上添加水印,并由联邦贸易委员会制定和执行AI水印标准。
PART03
标记方法的局限性
3.1 技术层面
易受操纵:无论是可见水印还是不可见水印,均不能防篡改。可见水印通过基本编辑即可轻松去除,不可见水印虽相对更具弹性,但仍可能因先进技术而退化或被移除,无法可靠地标识AI生成内容。
缺乏标准化:众多科技公司常采用与专有模型绑定的独特水印方法,导致跨平台验证困难。用户需使用不同工具验证不同公司生成的内容,增加检测复杂性的同时,降低可实现性,且不同平台对水印检测的准确性和一致性存在差异。
3.2 内容相关问题
虚假信息:虚假信息和错误信息可源于AI或人类创作。标记AI生成内容无法解决虚假信息传播的深层次原因,如个人传播未经核实内容的倾向性,也无法对传播虚假信息的用户问责,无法阻止对真实内容的扭曲和操纵,标记可能沦为表面的解决方案。
知识产权侵权与虚假陈述:标记AI生成内容无法防止知识产权侵权。例如,AI生成与受版权保护作品相似的图像属于侵权行为,这与人类艺术家手动创作侵权作品无异。同时,强制标记也无法解决将AI生成内容冒充为个人作品的问题,如学生用AI生成论文、创作者夸大原创贡献等,仅关注AI工具无法解决此类欺骗行为的根本动机。
深度伪造:深度伪造内容添加水印虽可识别部分AI生成的音频、照片和视频,但无法消除其恶意传播意图。在政治领域,恶意行为者使用深度伪造视频误导公众舆论、影响选举,即便视频有水印,仍可能被传播并误导用户。此外,生成欺骗性媒体内容并非AI的专利,人类可通过手动或非AI数字工具制作类似内容。
误导性区分:对AI内容的标记造成AI与人类创作内容的错误区分,忽视人类创作可能有害、AI创作也可能有益的事实。这可能导致民众对AI生成内容产生偏见,仅因其来源而质疑其可靠性,而非基于内容本身的可信度进行评估,阻碍对内容真实价值的判断。
3.3 国际层面
不同国家对AI生成内容标记的政策要求不一致,部分国家要求水印标记,而部分国家无此规定,这导致全球范围内的监管碎片化。来自无标记要求国家的AI生成内容可在国际间无标记传播,模糊了AI与人类创作内容的界限,给跨境内容监测和区分带来挑战,误导民众认知,削弱其对AI生成媒体的信任建设。
PART04
政策建议
4.1 采用适用于所有数字内容的信任标识
政策制定者应推广自愿性解决方案,使用户能够检查数字内容的来源和历史,无论其由AI还是人类创作。以C2PA(由微软、Adobe等科技公司推动的标准)为代表的标准,得到众多行业巨头的支持,允许创作者在数字内容中嵌入加密安全的元数据以证明其真实性。通过实施这些标准,可建立内容的保管链,记录每一次修改,增强透明度,从而培养用户信任。政府机构应率先在官方数字媒体中采用C2PA标准,为公众和私营部门树立榜样,提升公众对政府发布数字内容的信任度。
4.2 开展数字、AI和媒体素养宣传活动
政策制定者应开展针对不同年龄段用户的数字、AI和媒体素养宣传活动,培养用户评估数字内容真实性、识别来源信息以及理解内容透明度重要性的能力,帮助用户在面对海量数字媒体时做出明智决策,减少操纵信息的影响。同时,活动应教导用户如何负责任地使用AI工具,以及在遇到如深度伪造等问题时如何自我保护。与科技公司、媒体平台和数字素养倡导者的合作至关重要,通过合作可推动内容真实性标准的采用,提高用户对验证工具的认知和使用能力。
4.3 针对特定问题制定解决方案
政策制定者应针对不同问题制定细致入微的解决方案,而非简单地对AI生成内容进行强制标记。对于虚假信息和错误信息,应优先推动数字素养倡议、内容来源标准制定以及平台自律,培养用户批判性评估内容的能力,从源头上减少虚假信息传播;在知识产权侵权方面,应加强现有知识产权法律对所有内容的执行力度,保护创作者权益;针对深度伪造问题,应根据不同场景制定相应规则,如要求政治竞选活动在传播可能误导选民的欺骗性媒体内容时进行核实披露,制定并执行针对恶意深度伪造内容(如复仇色情类)的法律,营造更安全、可信赖的数字环境。
PART05
结 论
通过水印对AI生成内容进行强制标记并非解决政策制定者所关注问题的有效方案,构建数字生态系统信任需采取全面方法,针对具体问题制定有针对性的策略。政策制定者应积极采用信任信号、支持内容来源标准,并提升数字素养,以此打造更强大有效的策略,应对网络有害内容,推动数字生态的健康发展。
数字生态的健康发展不仅有助于解决当前AI生成内容带来的挑战,还能为数字技术的持续创新和应用营造良好环境,确保数字空间的安全与可信,促进数字经济的繁荣发展。在技术不断演进的背景下,政策制定者需持续关注AI技术发展动态,灵活调整政策措施,以实现技术发展与社会稳定的平衡。
参考文献:
https://itif.org/publications/2024/12/16/why-ai-generated-content-labeling-mandates-fall-short/
声明:本文来自认知认知,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。