编者按
当新工具带来新风险,第一反应是“堵”还是“疏”?本文旗帜鲜明地指出,封堵绝非长久之计,安全团队的使命应从“守门员”转向“教练员”。而“以AI制AI”实现安全能力“平权”、以及构建校内可信AI基座的核心思路,将为高校从被动防御转向主动赋能,提供关键的理念升维与战略路径。
近期,以小龙虾(OpenClaw)、Hermes Agent为代表的开源AI智能体(Agent)框架席卷全球。这一现象并非偶然的技术热点,而是标志着人工智能应用的根本性转折:AI正从单纯的“对话与认知”迈向“感知与执行”。
大模型虽已掌握海量知识,但其认知被困在训练数据的时间截止点上,难以触达最新动态。为了让AI更与时俱进,需要为其挂载动态知识库,并赋予其工具调用(Tool Use)的“技能库”(Skills)。一个具备强大推理能力的模型,加上类似OpenClaw这样的智能体编排框架,便构成了一个能自主规划、调度工具、联网学习以及编写代码的“人机协同体”。用户只需给出模糊指令,它便能拆解任务、自主执行并交付最终结果。
尽管当前的智能体技术在校园级应用所需的安全性、稳定性及权限隔离方面尚待完善,但其代表的方向已不可逆转:AI的能力正从“大脑”延伸至“双手”。未来,深刻理解业务并善于使用AI的超级信息化人员,或将指挥由多个AI智能体组成的“虚拟团队”,完成传统上需多人多部门协同的复杂工程。这种“一人军团”的新生产力范式,已在社会上悄然成型。

重塑认知:从“封堵”到“驾驭”
面对“小龙虾”这类个人智能体的兴起,部分高校的第一反应是“禁止在办公及教学终端安装运行”。这种出于对“高权限、行为复杂、易失控”风险的担忧虽可理解,却非长久之计。正如汽车诞生初期因交通规则缺失而事故频发,但其取代马车仍是历史必然。智能体所代表的“自动化执行”趋势不可阻挡,关键在于我们如何认知并驾驭它。高校安全团队首先要完成认知的升维,成为新技术的“深度用户”。只有亲身实践,理解智能体的能力边界与脆弱性,才能设计出符合实际的管控策略,从简单的“禁止使用”转向引导师生“在可接受的范围内安全地使用”,从“守门员”转变为“教练员”,引导师生安全地使用智能体。
以AI制AI:迈向安全能力“平权”
当前,攻击者已广泛利用AI进行自动化漏洞挖掘与攻击。若高校安全团队仍固守传统手段,无异于在对手已装备“AI自动化武器库”时,仍凭血肉之躯进行“非对称防御”,攻防态势将严重失衡。因此,“以AI制AI”不是一句口号,而应成为未来安全能力的基线。这意味着安全团队的核心竞争力必须转型:从依赖专家个人经验,转向提升对“AI武器库”的组装、指挥与迭代能力。一方面可将经验代码化,将资深专家的经验转化为标准化的“技能库”和高质量数据集。另一方面是将任务自动化,通过消耗词元(Token),利用AI自动审查代码、进行7×24小时漏洞扫描、分析海量日志、监测账号异常,实现安全工作的大规模自动化执行。
过去,因安全人才稀缺且分布不均,不同高校的安全能力差异巨大;未来,只要能够调用先进的AI模型与智能体,许多基础性、重复性的安全工作将被拉齐至相近水平。资源相对有限的高校更应把握这一历史机遇,通过技术杠杆实现高校间的“安全平权”。

升级治理:为“人机协同”设立新规则
AI智能体时代,传统的安全体系基于对“人”的行为进行感知和管控,而面对海量、自主运行、动作迅速且交互逻辑难以完全预测的“人机协同体”,原有的边界防护、漏洞管理及审计模型已难以应对。对此,可构建动态沙箱机制。通过技术手段为智能体设立严格的“工作沙箱”,为其创建专属且受限的系统身份,将操作严格限定在特定虚拟环境或目录下。当智能体确需高权限操作时,应摒弃默认授权,转而建立“临时申请、人工审批、动态授权”的机制。
简言之,治理体系必须穿透这层“代理”迷雾,将安全策略内嵌至智能体的调度平台与工具调用链中,确保任何自动化行为都能精准关联到背后的责任人,真正实现“行为可管可控、可溯源”。
搭建基座:构建校内可信的AI基础设施
面对师生强烈的AI应用需求与校外不可控服务带来的数据泄露风险,高校有必要构建校内可信的“AI基础设施”,提供标准化、平台化、服务化的AI能力基座。针对不同场景,模型服务层要提供多元、可信的模型选择,整合云端通用模型与校内私有化部署模型,形成差异化分级服务矩阵。学校提供企业级的智能体编排层,打造安全可控的智能体开发与运行“广场”。师生可低门槛地创建、分享和使用智能体。信息化部门则在此平台上统一实施安全策略、规范工具调用、集中审计行为,变“分散失控”为“集中可控”。
此外,智能体时代的数据形态已扩展到知识库和向量库。新形态下的数据安全防护不仅要防“泄露”,更要防“污染”和“幻觉”。需引入工程化约束机制,例如要求关键回答必须提供可验证出处,或引入“多智能体交叉验证”机制——让多个智能体独立完成任务,再由主控智能体汇总校验,以对抗大模型的“幻觉”,提升决策可靠性。

普及素养:定义人机协作新常识
当AI成为普遍的生产力工具,高校师生的数字素养内涵也应加入“对AI的理解力”,信息化部门需向全校传递各类新常识。一是深刻理解大模型存在不同程度的“幻觉”,明白只有通过人工复核或多源比对来过滤虚假信息,才能有效规避因盲目信任而引发的学术不端或业务失误风险。二是要清晰界定数据边界,明确哪些数据可交由公有模型,哪些必须留存于校内私有环境或本地。需高度警惕“免费午餐”背后的代价,许多公有云模型服务协议隐含数据授权条款,可能导致敏感数据被用于模型训练甚至泄露。三是要有成本与效能意识,理解不同模型(满血版和各类量化版)的能力差异,学会根据不同场景选择最经济模型。四是培养安全协作意识,掌握为AI智能体设置“工作边界”的方法,理解数据隔离和权限隔离的重要性,在受控环境中安全使用。
结语
展望未来,高校的安全能力将不再单纯取决于“人手”与“资金”的规模,而将转向比拼AI武器库的“组装效率、指挥艺术与迭代速度”。安全的本质依然是“人与人的对抗”,但战场已从代码层面升至智能体调度与认知博弈的层面。
高校安全团队的使命,是在完成自身认知革命与能力重构的同时,为全校构建起一套既能释放生产力、又能管控新风险的AI基础设施,守护教育数字化转型。目标不应是简单的“封堵”,而是深度的“赋能”。要在坚守安全底线的前提下,让AI能力像水电一样随手可得,让安全成为智能体发展的跑道,而非枷锁。
作者:姜开达 吴芳(上海交通大学信息化推进办公室)
责编:胡暄悦
声明:本文来自中国教育网络,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。