2026年3月7日,斯坦福大学法学院发布文章《认知托管:人本原则的隐秘盲区》。文章称,人本AI框架下暗藏认知托管这一关键盲区,人类在无意识间将自主思考、独立判断等认知主权逐步让渡给AI,人本原则看似周全,实则存在难以察觉的逻辑疏漏。文章强调,AI技术本身无优劣之分,唯有筑牢伦理防线、建立健全跨领域监管与审查机制,才能守住人类认知主权,让AI技术真正服务于人,实现健康可持续的人机协同发展。

《认知托管:人本原则的隐秘盲区》

作者:Eran Kahana,律师,执业重点是网络安全、人工智能和知识产权法

编译:佑溪

全文摘要与关键词

1.认知托管——一种悬置状态:核心并非AI响应的技术时长,而是人类将思考主动交付AI、陷入无法观测干预的悬空处境,是极具现实意义的现象学状态。

2.人本原则的局限:现有AI治理规则无视决策间隙的人类状态,既放弃了对认知脆弱性的保护,也难以全方位守住人类在人机协同中的主体性。

3.重构治理:认知托管为AI治理指明新方向,补齐人本原则第四问,关注AI响应间隙的认知参与度,才能实现全流程人本覆盖。

4.结语:认知托管从不是晦涩的学术概念,而是映照人机关系真相的镜子,它提醒我们,依赖AI的过程中,我们交出的不只是问题,更是一部分认知掌控权。AI治理的终极目标,不是打造高效的工具,而是守护人类的思考力与主体性。真正的 “以人为中心”,既看重AI输出质量,更关注人机交互全流程的人类状态。


在AI治理的主流话语里,“以人为中心”早已成为政策制定、产品设计与伦理规范的核心准则。我们强调人类监督、保留最终决策权、防范自动化偏见,试图用规则守住人机协同的主导权,可所有人的目光都聚焦在AI输出结果与人类决策环节,却集体忽略了一个日常又关键的问题:从按下发送键到AI返回响应的这段间隙,人类究竟处于怎样的认知状态?

这段被漠视的空白,既不是网络延迟,也不是单纯的等待时长,而是一种真实存在的体验。作者将其命名为“认知托管(Cognitive Escrow)”,这个概念不仅戳破了AI治理的话语漏洞,更揭开了“以人为中心”原则背后,一个极易被忽视却影响深远的盲区,也让我们重新审视人本设计的真正内涵。

01

认知托管:一种悬置状态

  • 认知托管的核心

多数人误以为,等待AI回应的几秒只是技术速度问题,是可无限压缩的冗余时间,却完全忽略了人类的真实处境。当我们敲定提示词并发送,脑海中的想法便完成了彻底 “交付”:脱离主观掌控,进入无法观测、无法干预的AI运算流程。结果返回前,这份思考既不属于我们,也未形成有效输出,如同法律托管,被交由AI系统暂时持有,等待不受我们控制的条件达成后归还。这便是认知托管的核心,它聚焦的不是技术时长,而是人类真实的现象学状态。

  • “延迟”、“等待时间” 和“认知托管”的本质差异

“延迟” 只是网络速度的量化指标,无关人类的认知感受;“等待时间” 也只是用户体验的评价指标,默认这段间隙是需消除的负面存在。而认知托管,精准捕捉到了人类的“悬置感”:我们不再持有原有思考,也未迎接结果回归,既不参与决策、也不开展监督,更无法介入运算过程,只能被动等待、放空思绪,处于主动交出认知控制权后的悬空状态。律师审阅文书、医生辅助诊断、职场人处理日常工作,高频使用AI的群体,每天都会数十次进入认知托管。这些碎片化的间隙不断累积,悄悄重塑着我们的思考习惯。

02

人本原则的局限

当下主流的 “以人为中心” AI治理原则,围绕三大核心问题展开:人类监督是否有效且可持续?人类专业能力是提升还是流失?如何避免自动化偏见与盲目信任?这些问题直击治理痛点,回应了行业对机器越权、人类敷衍、算法误导的长期焦虑,却都建立在一个片面前提上:人机协同中,人类只有 “参与决策” 与 “未参与决策” 两种状态。认知托管的出现,打破了这种二元认知,揭示了第三种关键状态——人类处于决策循环的间隙之中。

在认知托管期间,我们既没退出系统,也没放弃监督,只是暂时移交思考。现有治理规则只关注决策环节的人类参与度与AI输出的合理性,却完全无视这段间隙里的人类状态。这种治理看似只是忽略了短暂的时间差,实则隐患重重:它让“以人为中心”沦为只重结果、不重过程的空谈,放弃了对人类认知脆弱性的保护,难以全方位守护人类的主体性。

03

重构治理

认知托管概念的提出,为AI治理指明了全新的优化方向,也让我们明确了现有 “以人为中心” 原则,必须补上关键的第四问,才能实现全流程的人本覆盖。我们不能只关注决策环节的人类监督有效性,更要追问——从发送提示到AI响应的间隙,系统设计究竟是支撑、还是侵蚀人类的认知参与度?当下主流治理工具与方法论,无论是人在回路设计、监督负担评估,还是STIR审慎工作法,都只聚焦发送前的准备与回复后的决策,完全避开了认知托管这一核心间隙。

STIR工作法(停止、思考、调查、研究)看似严谨,却过度依赖使用者的自觉与自律。在现实工作中,面对时间压力、身心疲惫、认知过载等场景,人们很容易出现步骤省略、执行走样的问题,无法形成稳定的保护机制。真正长效的 AI治理,从来不是寄托于人类的意志力,而是将保护机制融入系统底层设计。把认知托管间隙作为触发审慎思考的节点,让STIR等规范从依靠自觉的理想追求,变为系统驱动的结构常态,唯有如此,才能真正弥补人本原则的盲区,守护人类在AI时代的认知主体性。

04

结 语

我们总以为,AI的风险藏在算法输出的结果里,于是反复校验内容、严控决策,却忽略了风险也藏在等待间隙中。认知托管从不是晦涩的学术概念,而是映照人机关系真相的镜子,它提醒我们,依赖AI的过程中,我们交出的不只是问题,更是一部分认知掌控权。AI治理的终极目标,不是打造高效的工具,而是守护人类的思考力与主体性。真正的 “以人为中心”,既看重AI输出质量,更关注人机交互全流程的人类状态。唯有正视这段间隙,才能让AI真正赋能人类,让技术始终服务于人、守护于人。

参考文献:

https://law.stanford.edu/2026/03/07/cognitive-escrow-the-human-centered-principle-has-a-blind-spot/

声明:本文来自认知认知,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。