克雷西 发自 凹非寺

量子位 | 公众号 QbitAI

学校的图书管理员,已经开始用ChatGPT来筛选带色情内容的书籍了。

根据一项新规定,美国爱荷华州的学校需要下架图书馆中包含性行为描述的书籍,但“阅读每本书并按新要求筛选根本不可行”。

在ChatGPT的帮助下,一个学区终于赶在开学前筛选出19本符合条件的书籍。

隔天,OpenAI也正式宣布将GPT-4引入内容审核系统。

在OpenAI看来,GPT-4这项审查功能可将审查更新周期从数月缩短至数个小时,且具有更强的灵活性。

高效自动化内容审核

这项新的功能不仅在于提高效率和减轻人类工作量,还解决了人工审核中尺度不一致问题。

最重要的是,它能够避免有害内容对审核人员造成的身心伤害。

一家科技媒体的编辑Reed Albergotti做出了这样的表示:

使用大型语言模型来进行内容审查是向前迈出的一步。

这并不是因为它有多完美,而是因为它的尺度会更加一致,并且不易受到人类情感和文化差异的影响。

工作流程上,重点的环节是用户政策的设计,这部分是由人工主导的。

之后GPT-4会使用一些示例进行准确性检验和优化。

根据GPT-4的预测微调出小型筛选器,就可以对内容进行批量审查了。

OpenAI发言人也透露,已经有客户在用GPT-4进行内容审查,但并未给出具体名单。

此外,OpenAI正在研究将这项功能从文本审核扩展到图像、视频的鉴别 。

那么,这个功能究竟好不好用呢?

OpenAI:有信心做得很好

OpenAI总裁兼联合创始人Greg Brockman表示,这项功能「非常可靠」。

同时,Brockman还展示出了测试结果作为依据。

在色情、暴力等多个类型的有害内容判别上,GPT-4的表现超过了经少量训练的人类。

不过和经验丰富的审核人员相比,的确还有一些差距。

但OpenAI安全和信任部门原主管Dave Willner对著名科技媒体人Casey Newton表示,「这种情况不会持续太久」。

也有负面观点认为,总会有人想方设法钻AI规则的漏洞。

毕竟,大模型越狱事件出现了已经不只是一次两次了。

美联社的Frank Bajak更是表示,ChatGPT这样的大型语言模型「非常难以控制」。

对此,Weng也坦言,的确没办法做到100%没有漏洞,但有信心会很好。

我们无法从一开始就构建一个100%「防弹」的系统。

人们正在帮我们揪出模型中的错误,但我非常有信心它能做得很好。

One More Thing

GPT-4内容审核功能的实用性暂且按下不表,OpenAI的安全工作本身也存在很多争议。

据Time杂志消息,OpenAI此前在肯尼亚聘请数据标注人员标注有害内容的过程中,有参与者表示其中的暴力、酷刑等有害内容给他们造成了心理阴影。

新方法出台后,人类仍需要参与到内容审查工作当中,但这样的情况可能会大大减少。

参考链接:

[1]https://openai.com/blog/using-gpt-4-for-content-moderation

[2]https://www.popsci.com/technology/iowa-chatgpt-book-ban/

[3]https://www.semafor.com/article/08/15/2023/can-chatgpt-become-a-content-moderator

[4]https://twitter.com/gdb/status/1691500101187805185

[5]https://twitter.com/caseynewton/status/1691602324366786575

声明:本文来自量子位,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。