最近,LunaLock团伙针对艺术家与客户(Artists&Clients)网站发起攻击,窃取了数字艺术作品。该团伙向受害者索要5万美元,威胁要泄露数据,并将窃取的数据用于训练大型语言模型(LLMs)。
“我们入侵了艺术家与客户网站,窃取并加密了其全部数据。如果你是该网站的用户,我们敦促你联系网站所有者,并要求他们支付赎金。如果赎金未支付,我们将在该Tor网站上公开发布所有数据,包括源代码和用户个人信息。此外,我们将把所有艺术作品提交给人工智能公司,加入其训练数据集。”勒索软件团伙在其Tor数据泄露网站上发布的公告中写道。
LunaLock黑客在技术上相当熟练,且似乎是以英语为母语的人。
这种新型勒索手段旨在通过将被盗数据纳入用于训练LLMs的数据集中,来侵犯受害者的知识产权。未来,其他勒索软件团伙可能会将被盗数据上传至公开可访问的数据库,使其能被人工智能训练管道轻松抓取。一旦数据被纳入人工智能模型,它就变得事实上永久存在,与可能随时间逐渐消失的暗网泄露不同。LunaLock的做法开创了一个危险的先例。
专家指出,LunaLock对艺术家与客户网站的攻击不同寻常,因为勒索软件通常会针对那些有可能支付赎金的行业。双重或三重勒索对自由职业者可能无效。艺术家们已经在保护他们的作品,使其免受黑客攻击和人工智能数据抓取的侵害。
像OpenAI、谷歌和Anthropic这样的人工智能公司会抓取在线艺术作品来训练模型。Anthropic最近同意支付至少15亿美元来解决由作者提起的版权诉讼,这是美国首例人工智能版权案件。
为应对这一问题,芝加哥大学计算机科学教授赵本(Ben Zhao)创建了Glaze和Nightshade这两种工具,它们可以微妙地改变图像,使其对人类看起来正常,但却会误导人工智能训练。
赵本的工具Glaze和Nightshade于2022年推出,至今已有超过300万次下载,被艺术家广泛用于保护他们的作品免受人工智能抓取和像LunaLock这样的勒索软件威胁。
转载请注明出处@安全威胁纵横,封面来源于网络;
消息来源:https://securityaffairs.com/182014/malware/lunalock-ransomware-threatens-victims-by-feeding-stolen-data-to-ai-models.html
声明:本文来自安全威胁纵横,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。