据路透社报道,法国、德国和意大利发布了一份非正式联合声明。其中显示法、德、意三国已就如何监管人工智能达成协议,预计这将加速整个欧洲层面的谈判。

三国政府支持对所谓的人工智能基础模型“通过行为准则进行强制性自我监管”,其中包括旨在提供广泛成果的大型语言模型(LLM)。联合文件强调,《人工智能法案》监管的是人工智能的应用而不是技术,并指出内在风险在于人工智能系统的应用而不是技术本身。

基于欧洲人工智能法案价值观的创新友好型路径

  • 我们承认需要对人工智能系统进行全面监管,并从一开始就欢迎欧盟委员会就这方面提出的《人工智能法案》提案。《人工智能法案》将为欧盟公民提供保护,使其对单一市场上销售的人工智能产品拥有信心。

  • 这项新法规将补充欧盟已适用的综合法律工具箱,例如与数据隐私相关的GDPR、《数字服务法案》或《防止恐怖主义内容在线传播条例》等。

  • 欧盟打算将自己定位在人工智能革命的前沿。这需要一个促进创新和竞争的监管框架,以便欧洲企业能够在全球人工智能竞赛中脱颖而出并传递欧洲的声音和价值观。

  • 在此背景下,我们重申我们的共同承诺,即《人工智能法案》采取平衡、创新友好和连贯的基于风险的方法,减少企业不必要的行政负担,因为这些负担会阻碍欧洲的创新能力。这将促进数字市场的可竞争性、开放性和竞争。

  • 我们欢迎轮值主席国西班牙努力与欧洲议会和欧盟委员会达成妥协,从而达成令各方和利益攸关方满意的解决方案。

  • 我们共同强调,《人工智能法案》监管的是人工智能的应用,而不是

    技术本身。这种基于风险的方法是必要的,旨在同时保持创新和安全。

  • 法律的确定性、清晰度和可预测性至关重要。

  • 应特别注意定义和区别。我们应该继续深入探讨这个话题。定义应该清晰、准确。在这方面,我们大力强调并欢迎主席国西班牙的努力。

  • 我们建议区分模型和可用于特定应用的通用人工智能系统。

  • 我们认为,对通用人工智能系统的监管似乎更符合基于风险的方法。人工智能系统的固有风险不在于技术本身,而在于应用。欧洲标准可以在新的立法框架之后支持这种方法。

  • 对于基础模型,我们反对制定未经检验的规范,同时建议通过行为准则建立强制性的自律。它们可以遵循七国集团层面通过广岛进程和《人工智能法案》草案第69条规定的原则,并确保价值链中必要的透明度和信息流动以及基础模型的安全性,防止滥用。

  • 然而,我们反对基础模型采用双层法(two-tier approach)。

  • 为了实现我们提出的方法,基础模型的开发人员必须定义模型卡。

  • 定义模型卡并使其可用于每个基础模型,是这种自我监管的强制性要素。

  • 模型卡必须具有一定程度的透明度和安全性

  • 模型卡应包含相关信息,以了解模型的功能、功能及其限制,并应基于开发人员社区内的最佳实践。例如,我们今天在行业中观察到的参数数量、预期用途和潜在限制、偏见研究结果、安全评估红队。

  • 人工智能治理机构可以帮助制定指南并检查模型卡的应用。

  • 该系统将确保公司能够以简便的方式向人工智能治理机构报告模型开发人员发现的任何违反行为准则的行为。出于透明度考虑,任何涉嫌违规行为均应由主管部门予以公布。

  • 最初不会实施任何制裁。但在规定的观察期后,如果模型开发者屡次发现和报告违反透明度要求的行为,而且一直没有得到纠正,则可以在对违规行为进行适当分析和影响评估后建立处罚制度并确定如何最有效地解决这些问题。

  • 在这方面,欧洲标准也可以成为一个重要工具,因为这也塑造了适应未来发展的能力。在这方面可以预见进一步的标准化任务。

来源|REUTERS、DigWatch

声明:本文来自上海市人工智能与社会发展研究会,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。