文/张欣 对外经济贸易大学法学院副教授、院长助理;对外经济贸易大学数字经济与法律创新研究中心执行主任

高奇 对外经济贸易大学法学院博士

本文载于《中国银行业》杂志2022年第6期

导语:面对数字金融时代人工智能算法带来的机遇与挑战,一方面,亟须深化算法应用治理框架,制定出一套符合金融交易特质的设计和使用规范;另一方面,需要建立以敏捷监管为核心特征的监管方案,平衡行业发展、技术应用和社会风险控制等多元目标,为智慧金融的健康稳定发展提供制度基础。

近年来,人工智能算法金融应用的发展和监管成为全球金融机构的关注焦点。新加坡金融管理局于2018年发布了《新加坡金融业使用人工智能和自动化决策的FEAT原则》,提出了金融类算法应用应当遵循公平、道德、问责和透明度四项准则,并于2022年2月4日发布了该计划的注释版本。香港金融管理局在2020年发布了《银行业人工智能的应用:转变中的合规与监管环境》报告,提出应合理、公平、道德、透明地使用人工智能技术。中国人民银行也在2021年3月26日发布的《人工智能算法金融应用评价规范》中将资金类和非资金类场景纳入算法评估范围,就金融业使用算法所产生的安全性、可解释性、精准性和稳定性提出了系统评估框架。可以说,人工智能算法在金融领域的应用进入高速增长期,与之伴随的监管方案也在各国渐次形成。本文梳理了算法应用在金融领域的风险,提出算法问责治理框架的核心构建机理,并就我国算法金融应用监管方案提出参考建议。

算法金融应用的风险类型

算法在金融活动中的广泛应用无疑产生了巨大影响。算法提高了金融交易与服务效率,增强了信息采集与传递速率,提升了金融决策与判断的准确性。但除了积极作用之外,算法应用过程中出现的技术风险、经营风险和行业风险也不容小觑。可以说,算法金融应用风险的系统化治理已经成为金融科技健康有序发展的核心和关键。

算法的内生技术风险。基于算法技术架构的复杂性,其技术风险主要源自于以下三个方面:首先,算法具有较强的数据依赖性。作为解决一系列问题的清晰指令,算法通过代码表达和执行,决策通常被认为是准确和可靠的。但是算法依赖于高质量的数据,如果用于训练算法的数据质量较差,过多的噪声数据可能导致算法决策出现稳定性和准确性偏差。其次,算法具有较强的黑箱性。架构复杂、性能优越的机器学习尤其是深度学习算法目前在金融领域被广泛应用。但由于后者是非线性算法,现阶段未能从技术上全面攻克其不可解释的难题。因此,对特定算法运行的判别过程难以转化成具备逻辑关系的解释性规则,由此导致算法的透明度不佳,与之伴随的算法归责和法律救济面临挑战。最后,算法对网络具有依赖性,金融行业的算法技术颇易成为技术攻击的目标,这些不稳定性因素的增加将严重影响金融安全。

算法应用的社会风险。金融产品的日益复杂化和专业化,使得消费者难以在合理时间内获得精准匹配产品需求的相关信息,智能投顾在这一背景下应运而生。智能投顾主要在用户画像生成、投资组合建议两个阶段大规模应用算法。在用户画像阶段,算法依据用户的财务、社交、生活习惯等数据,通过建模分析构建出用户的投资倾向与风险偏好,针对用户形成精准画像。在投资组合阶段,算法针对现有金融产品的风险结构与收益逻辑进行匹配,通过模型构建最优组合。但在以智能投顾为代表的金融智能应用中,可能出现以“算法歧视”为代表的一系列社会风险。首先,算法训练依赖的数据集可能欠缺包容性和多元性,导致算法模型可能生成歧视性决策。例如,由于历史数据中女性的消费额度和收入总量低于男性,因此,依据历史数据训练的信用额度评估算法在运行过程中出现性别歧视。即使女性的信用评分更高,但仅能获得同家庭男性的十分之一甚至二十分之一的授信额度。而这一问题在近期苹果高盛联合推出的“苹果信用卡”中被曝光,并引发了与算法性别歧视相关的社交媒体“风暴”以及监管机构的调查。其次,在模型设计阶段,算法设计者或者公司利益带有的主观偏见也可能带入到模型中,造成“主观歧视”。例如,在美国保险业,曾长期存在基于种族以及基于特定高风险区域的红线批注行为。尽管立法已经禁止算法使用种族等受保护属性参数,但一些保险公司仍然可以通过邮政编码等代理变量实现对特定种族征收高额保费的目的。最后,由于训练数据不可避免地反映了现实世界的阶层构成,因而还可能将传统社会中存在的性别、种族等歧视现象潜移默化地复刻到模型之中,强化并扩展“社会歧视”。由此可见,算法金融应用伴随着一系列歧视风险,一旦造成算法不公,难以有效问责和治理。

算法应用的行业风险。伴随着算法的相互渗透与发展,在同一领域内应用的不同算法可能输出相似结果,从而出现“算法趋同”的现象。以银行信贷业务为例,算法趋同将会导致信贷市场的顺周期性,进而对金融稳定格局产生影响。在信贷行业,信贷评估是人工智能算法应用的高地,在促进信贷市场从“关系型贷款”向“交易型贷款”发展的过程中,信贷算法在数据采集、数据挖掘以及风险评估上采用相同或相近的模型,这可能使得信贷市场的自动化决策趋同,不仅可能引致特定阶层和群体的“结构性锁定”现象,还可能在宏观层面导致银行扩张或者收缩信贷,从而加剧市场的顺周期性波动,引发市场和行业的震荡。

算法金融应用的治理框架

技术优化在一定程度上能够化解金融科技的负面效应,但是在缺乏行为约束的情况下,市场主体的自发需求与旺盛活力将会加剧并扩展风险。制定科学合理的行为规范,塑造有效稳定的治理框架将成为算法金融应用的监管保障。

构建金融算法设计缺陷防范机制。算法设计缺陷防范机制旨在设计阶段保障算法按照预期目标稳定、精确地运行。算法设计缺陷防范机制具有法律和技术深度交叉性,既需要相关技术标准的有效指引,又需要法律规范的强力驱动。一些知名科技公司已经主动开发一系列算法公平性检测工具,确保在算法设计阶段消除歧视和偏见性因素。例如,“脸书”上线了偏见检测工具Fairness Flow,该工具会自动预警算法是否依据种族、性别或者年龄对用户产生歧视。IBM公司研发了AI 360 Toolkit,分别针对算法的可解释性、公平性和歧视问题提供了检测和解决方案。谷歌则开发了机器学习透明模型卡用来评价算法模型的来源、使用方法和道德伦理风险。

强化金融算法应用的可信机制。算法可信机制是通过确保算法应用过程中尊重人类基本权利、法律法规和核心价值观确保算法的设计和运行符合伦理规范,与此同时,通过技术手段确保算法运行稳健性和可靠性的国际主流算法治理理念。算法可信机制是确保其能在金融领域被大规模应用的前提和基础。在制度规范层面,应当首先赋予用户知情、参与、异议、救济等程序性权利。重视和尊重用户的主体性地位,通过提升金融算法应用的透明度和公平性构建算法技术信用机制。例如,《人工智能算法金融应用评价规范》从建模准备、建模过程和建模应用等全生命周期的视角提出了算法解释的方法,并就算法解释的基本要求、评价方法和判定规则进行了归类,最大限度提升决策的准确性和可靠性,增强用户对金融算法应用的技术信任。《关于规范金融机构资产管理业务的指导意见》第二十三条也明确提出,金融机构应当“为投资者单独设立智能管理账户,充分提示人工智能算法的固有缺陷和使用风险”。此处的提示和知情义务就内嵌了算法解释和说明的要求。金融企业应当据此建立算法透明度合规框架。欧盟委员会发布的《可信AI伦理指南草案》中还建议在技术设计的早期阶段融入可归责性、算法自主性管控、隐私保护、普惠设计等十项可信价值。此外,算法应用的可信机制还来源于一系列技术可信手段的强力保障。例如,可信计算技术通过利用硬件属性作为信任根,系统启动时逐层度量,建立一种隔离执行的运行环境,从而实现对可信代码的保护,提升算法运行的安全性,通过主动措施系统保障算法稳健、安全和可信的技术代表。

完善金融算法人工审核机制。在判断人工智能金融算法决策是否公平时,通过人工审核方式构建合理干预机制是目前国际通行和主流的做法。欧盟《通用数据保护条例》第22条明确提出了数据主体具有获得人工干预的权利。2019年美国《在线隐私法案》第105条也具有相似的制度设计。我国《个人信息保护法》《互联网信息服务算法推荐管理规定》均规定了人工合理干预和审核机制。具体到金融领域,中国银保监会2020年发布的《商业银行互联网贷款管理暂行办法》第二十二条明确提出,商业银行应当建立人工复核验证机制,作为对风险模型自动审批的必要补充。商业银行应当明确人工复核验证的触发条件,合理设置人工复核验证的操作规程。由于现阶段的算法决策仅能识别相关关系,难以周全考量因果关系,因此,辅以人工审核的方式不仅可以预防算法设计目标偏离伦理框架,还有助于实现公平公正、尊重隐私、安全可靠的算法运行目标。除此之外,算法审计、算法问责、算法影响评估等治理工具也可用于算法纠偏,更为周全地确保算法公平和算法公正。

以敏捷治理搭建有效监管框架

面对监管资源稀缺、监管对象复杂、监管生态日益去中心化的挑战,监管者亟须开发和尝试新的思路,合理设定监管阈值,在科技创新和风险控制之间寻求良好平衡。因此,以创建具有柔韧性、流动性、灵活性和适应性监管框架为特色,以实现监管目标多元平衡、监管过程动态优化以及监管工具灵活转换的敏捷治理(Agile Governance)理念应运而生。在这一理念引领之下,各国算法治理纷纷进行了智能化革新,以数字化、智能化、实时性、可扩展性为目标,提升治理的精准性和效率。就我国而言,建议从监管工具、监管规范和监管参与主体等角度加以创新,尝试构建与人工智能时代算法应用虚实结合、跨域联动等特质相匹配的监管框架。

适时更新监管工具。2015年,英国金融行为监管局(FCA)推出了“监管沙箱”理念。通过将金融科技的发展和创新置于安全港中,在一定条件和范围内创设豁免制度,同时施加管理措施将风险控制在安全水平,从而为科技产品落地监管提供修改指引,加快产品推出速度并降低开发成本。监管沙箱的运行随着金融科技的发展而不断推陈出新,呈现出便捷化和场景化的趋势。在对监管沙箱制度变革之前,企业仅能在特定的申请窗口期间内申请加入。截至2021年末,共计有7个批次、159个公司被纳入到FCA的监管沙箱项目。为适应金融科技的迅猛发展之势,自2021年8月开始,FCA将监管沙箱由定期申请转为常年开放模式,允许企业在任意时间提交申请。与此同时,以“主题沙箱”(Thematic Sandbox)为代表的创新做法和主题试点不断涌现。例如,2020年7月,FCA与伦敦金融城公司宣布合作推出“数字沙箱”试验计划,旨在开发和提供完备的数字测试环境,向金融科技创新企业提供高质量的数据库访问权限,帮助其验证技术解决方案的可行性。

2019年底,中国人民银行批复北京市探索此类监管方案,率先启动了资本市场的金融科技创新监管试点。随后,上海、深圳、重庆、杭州、苏州、雄安、广州、成都八地开展试点。目前已经有四项创新应用依据《中国金融科技创新监管工具白皮书》《金融科技创新应用测试规范》等规则完成测试并拟对外推广应用。就人工智能金融算法应用而言,监管沙箱具有较大的借鉴意义。一方面,可以通过开发“算法沙箱”鼓励金融科技产品提升算法应用的稳健性和公平性,拓展算法在金融领域的应用场景和应用范围。另一方面,可以通过实时监测发现试点算法金融应用的风险点和应对方案。

创新监管规范体系。敏捷治理推动了算法监管范式从以命令和控制为模式的“硬法”监管范式转向以协同性、动态性、分层性、复合型为特征的“软法”治理。人工智能“软法”治理工具有助于在金融科技产品开发早期嵌入伦理和价值要求,在应用和部署阶段推动评估和认证制度的有效落地,在事后阶段为人工智能金融技术和产品构建追溯和责任制度提供依据。《人工智能算法金融应用评价规范》即是对金融算法展开“软法”治理的代表。除此以外,我国还应从加快制定金融算法技术与应用的国家标准和行业标准,践行“软硬兼施”、“刚柔并济”的协同治理理念。具体而言,首先,金融算法技术标准应对现实需求及时响应,针对依托新型算法的金融产品,可视具体制度需求在常规化制定程序之外设定加速程序,实现技术标准制定的动态性与敏捷性。其次,应推动成立金融算法技术和应用标准制定委员会,就金融算法设计伦理规范、系统透明度、算法偏差、金融数据治理、金融算法可信设计等重点领域形成人工智能标准制定规划,对金融算法技术开发和部署应用过程中涉及的基础性技术标准和应用性技术标准予以重点关注并加快推进。

创建多元协同监管框架。人工智能金融产品具有交叉性、跨域性以及多元场景性,对其施加有效治理需要多元主体联动协同。我国可以丰富多种人工智能合作伙伴形式,创新多元协同监管框架。首先,建议我国金融行业内相关协会积极参与全球人工智能治理合作组织,积极投身人工智能协同监管国际实践。例如,2021年9月,国际证监会组织发布了《中介机构和资管机构使用人工智能和机器学习技术情况》,就资本市场使用人工智能技术所产生的风险和危害进行了分析,并为企业和监管机构提出了相应的建议。经合组织于2022年2月就《金融消费者保护高级原则》修订工作展开咨询,就人工智能在金融消费领域的开发和应用寻求建立共识性框架。我国的金融企业以及行业组织应当以多元化形式积极投身金融算法全球治理实践议程之中,通过国际合作伙伴形式积极贡献人工智能金融监管的中国方案。

其次,积极推进政府主导下,由行业代表、研究机构等多元主体参与形成的国家型人工智能合作伙伴关系,兼顾多维目标、融合多元价值,加强政企之间的合作与对话。例如,2020年10月,英国金融行为监管局和英格兰银行联合举办了人工智能公私论坛。该论坛以季度会议和研讨会的形式就金融领域的算法治理进行商议,并于2022年2月发布“最终报告”。该报告中屡次提及公共部门和私营部门在金融算法治理领域的合作,并建议筹建行业联盟以协同应对治理痛点和监管挑战。

最后,政府还应为相关社会团体和公益组织自发形成的自律型合作伙伴关系提供包容的制度环境。瞰览域外,相关团体在算法治理领域的积极作用有目共睹。例如,瑞士数字倡议(Swiss Digital Initiative)通过创建数字信任标签增强了客户对金融科技的信任程度。再如,美国算法正义联盟(Algorithmic Justice League)为消除算法种族偏见和算法性别偏见进行了一系列前沿性工作。目前,深圳、浙江等地先后成立了金融科技伦理委员会,作为地方性自律组织推动金融科技伦理的审查和落地工作,但类似的团体力量还极为不足。未来,还应从制度层面更为广泛地支持社会团体和公益组织在算法金融治理中的积极作用,切实推动包容性治理和参与式治理。(责任编辑:李立群)

(本文为司法部国家法治与法学理论研究项目“从算法危机到算法信任:算法治理的多元路径和中国方案”(19SFB3004)的阶段性成果。本文原载于《中国银行业》杂志2022年第6期)

声明:本文来自中国银行业杂志,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。