前情回顾·AI网络威胁态势

安全内参4月23日消息,国际知名AI编程工具Lovable近期发生的安全问题,为专业软件工程师提供了又一个对氛围编程保持警惕的理由。

周一,X用户Impulsive点名Lovable,称这家瑞典AI编程初创公司发生了大规模数据泄露,“影响了2025年11月之前创建的每一个项目”。

该用户表示,仅通过自己的免费Lovable账号,就能够访问另一名用户的代码、AI聊天记录以及客户数据。

该用户称:“英伟达、微软、优步和Spotify的员工都有账号。这个漏洞在48天前就已被报告,但至今仍未修复。他们将其标记为重复问题,并一直未予处理。”

Lovable承认权限设置不当,暴露所有用户聊天和构建内容

对此,Lovable否认发生了数据泄露,并表示用户可以查看公共项目代码,是其有意为之的设计决策。

然而,这一声明在X上引发了争议。由于表述不够清晰,以及用户不清楚未来应如何保护自身数据,Lovable随后发布了第二份声明。

公司解释称,允许他人查看“公共”项目,是“为了方便用户探索他人正在构建的内容”。同时补充,自去年12月起,所有订阅层级已默认关闭公共可见性。

在第二份声明中,Lovable也承认了最初X帖子所指出的安全问题。

Lovable写道:“不幸的是,在2月我们对后端权限进行统一时,意外重新启用了对公共项目聊天内容的访问权限。一经发现该问题,我们立即回滚更改,使所有公共项目的聊天再次恢复为私密。我们感谢发现这一问题的研究人员。”

AI编程产品没有在设计时就嵌入安全

部分用户对Lovable的透明度表示赞赏,但也有用户认为,公司最初的声明是在推卸责任。

安全公司Hacker Minded创始人Tom Van de Wiele表示,这一事件“再次说明,在缺乏安全默认设置的情况下,又未能针对自动化与AI时代进行威胁建模,问题终将暴露”。

他补充称,让用户自行判断哪些内容是公开的、哪些不是,“最终往往会失败”。

ESET全球网络安全顾问Jake Moore表示,围绕该事件是否构成数据泄露的争论,可能掩盖了更深层的问题。

他在接受采访时说:“这并不属于传统意义上的数据泄露,但也绝非无关紧要。从本质上看,这更像是设计缺陷,因为数据是被暴露出来的,而非通过黑客入侵获取。”

他进一步指出:“当一家公司纠结于语义而非实际影响时,往往意味着安全并未从一开始就被纳入设计之中,这正是导致此次事件的现实原因。”

易用和安全是一次权衡取舍

总体来看,专业开发人员并不鼓励过度依赖AI,因为其可能生成混乱且未经充分测试的代码。他们认为,氛围编程还会带来信息安全方面的隐患,包括公司数据被意外暴露。

Van de Wiele表示,开发此类工具的公司通常面临取舍,需要在提升易用性与确保安全之间找到平衡,但这并不能成为防护不足的理由。

他说:“公司往往处于两难境地,一方面希望降低新用户的使用门槛,另一方面又要防范数据抓取者。”他补充称,对于可能被抓取并转售数据的用户来说,这确实会带来现实影响。

Moore表示,如果用户未能充分理解哪些内容会被暴露,氛围编程工具可能进一步放大这些风险。

他说:“氛围编程正在不断加速不良默认设置的传播,用户必须对此保持清醒认识,并建立必要的故障保护与备份机制。”

他认为,这种趋势可能使类似事件变得更加频繁。

Moore表示:“如果用户因AI编程工具的默认设置而意外暴露敏感数据,攻击者甚至无需发起任何黑客攻击。”

接连发生数据安全事件

在Lovable出错前的几周内,AI领域已接连发生两起重大数据泄露事件。

3月下旬,Anthropic错误泄露了一个包含近2000个文件和50万行代码的档案。当时Anthropic表示,“未涉及或暴露任何敏感客户数据或凭证”。

本周早些时候,网站托管平台Vercel表示,其发现一起安全事件,导致未授权用户能够访问部分内部系统。

Vercel称,该事件源于其员工使用的第三方工具Context.ai被攻破。攻击者借此接管了该员工的谷歌Workspace账号,从而进一步获得了对部分Vercel环境的访问权限。

Vercel在周一发布声明称:“我们正在积极调查此事,并已聘请事件响应专家协助调查与修复。我们已通知执法部门,并将在调查推进过程中持续更新相关信息。”

在2月的一期播客中,Andreessen Horowitz普通合伙人Anish Acharya表示,公司不应在业务的每个环节都使用AI辅助编程,因为相关风险并不值得承担。他同时指出,依赖AI编写代码本身就存在潜在风险。

参考资料:businessinsider.com

声明:本文来自安全内参,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。