根据EndorLabs的数据,开源在AI技术堆栈中发挥着越来越重要的作用,但大多数项目(52%)引用了存在已知漏洞的易受攻击的依赖项。

EndorLabs在最新的《软件依赖管理状态报告》声称,在发布仅五个月后,ChatGPT的API就被超过900个npm和PyPI软件包调用,其中70%是全新的软件包。

然而,EndorLabs警告说,任何开源项目,都必须重视和管理与易受攻击的依赖项相关的安全风险。

OstermanResearch首席分析师MichaelSampson表示:“EndorLabs的这份报告证明了风光无限的人工智能技术的安全性并未跟上其发展步伐。”

不幸的是,企业不仅低估了开源依赖项中人工智能API的风险,而且还低估了安全敏感API的风险。

报告称,超过一半(55%)的应用程序在其代码库中调用了安全敏感API,如果包含依赖项,这一比例将上升至95%。

EndorLabs还警告说,ChatGPT等大型语言模型(LLM)技术在对可疑代码片段的恶意软件潜力进行评分方面表现不佳。结果发现,OpenAIGPT3.5的准确率仅为3.4%,而VertexAItext-bison的表现也好不到哪里去,为7.9%。

“这两种模型都会产生大量误报,这需要手动审查工作,并阻止自动通知相应的程序包存储库以触发程序包删除。也就是说,模型似乎确实正在改进,”报告指出。

“这些发现说明,目前将大语言模型用于安全敏感用例的难度很大。大语言模型肯定可以帮助人工审核人员,但即使评估准确率可以提高到95%甚至99%,也不足以实现自主决策。”

报告指出,开发人员可能会花费大量时间修复代码中的漏洞,而这些(依赖项的)漏洞甚至没有在他们的应用程序中使用。

报告声称,71%的典型Java应用程序代码来自开源组件,但应用程序仅使用了这些软件包中的12%的代码。

“未使用的代码中的漏洞很少可被利用;如果能了解整个应用程序中哪些代码是可访问的,企业可以消除或调低高达60%的修复工作的优先级。”报告指出。

声明:本文来自GoUpSec,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。