人工智能(AI)研究和部署公司OpenAI最近宣布全新对话式AI模型ChatGPT正式上线。据OpenAI称,该平台提供的对话使ChatGPT有可能“回答后续问题,承认自己的错误,质疑错误的前提,拒绝不恰当的请求。”

自ChatGPT上线以来,社交媒体就一直在讨论这个“新出炉”的创新成果会带来哪些可能性和危险——从它能够调试代码到可能替大学生写论文,无所不谈。我们与Gartner研究副总裁Bern Elliot、Gartner研究总监闫斌一起探讨了这项创新所产生的深远影响,以及数据和分析(D&A)领导者为保证此类工具用于正当用途而应该采取的行动。

问题:为什么ChatGPT会引起如此大的反响?它与以前的对话式AI创新有何不同?

回答:ChatGPT是聊天机器人和GPT3这两个当下“热门”AI的完美结合体。两者在组合后可以进行非常有趣的互动并做出很像人类的回答。它们都是过去五年各自技术领域的重大成果。

聊天机器人能够以一种看似“智能”的对话方式进行互动,GPT3输出的结果看起来似乎已经能够“理解”问题、内容和上下文。两者一起创造了不可思议的“恐怖谷“效应:它到底是人还是计算机?或者说它是一个类似人类的计算机?这种互动时而幽默,时而深刻,时而充满见地。

遗憾的是,ChatGPT回复的内容有时也会出错,而且不像是根据人类的理解或智慧所做出的回复。问题可能出在“理解”和“智能”这两个词上。这两个词本身就隐藏着人类赋予的含义,所以当它们被应用于算法时,会产生严重的误解。比较务实的观点认为应该将聊天机器人和像GPT这样的大型语言模型(LLM)视为完成特定任务的实用工具,而不是让它们去博人眼球。其成败取决于能否使用这些技术为企业机构带来有效的收益。

问题:ChatGPT可能有哪些用例,尤其是在企业中?

回答:简而言之,聊天机器人或对话助手可以根据信息源设计互动。聊天机器人本身就已经被用于客户服务、协助技术人员发现问题等许多用途。

ChatGPT总的来说是一个可以与GPT信息源互动(聊天)或“交谈”的特殊聊天机器人。为此,OpenAI会针对特定领域训练GPT信息源。该模型回答问题的方式取决于所使用的训练数据。但如之前所述,GPT会无征兆地生成错误信息,因此这些信息只能用于可以容忍或纠正错误的情况。

GPT等基础模型在计算机视觉、软件工程和科学研发等领域的用例众多,比如可以使用基础模型从文本中创建图像;从自然语言中生成、审查和审计包括智能合约在内的代码;甚至在医疗领域发明新药和破译基因组序列以对疾病进行分类。

问题:围绕ChatGPT和其他类似的AI模型产生了哪些道德方面的担忧?

回答:像GPT这样的AI基础模型代表着AI领域向前迈出了一大步。它们具有许多得天独厚的优势,比如大幅减少创建特定领域模型所需的成本和时间。但它们同时也带来了风险以及道德方面的担忧,包括:

  • 复杂性:大型模型涉及数十亿,乃至数万亿的参数。由于需要耗费巨大的计算资源,这些模型可能会变得昂贵和不环保,使得大多数企业机构无法训练它们。

  • 集权:这些模型主要由拥有庞大研发投入和大量AI人才的科技巨头构建。这会导致权力集中在几家财力雄厚的大型企业身上,在未来严重破坏社会的平衡。

  • 可能被用于不正当的用途:基础模型降低了内容创作的成本,使创造与原作品高度相似的深度伪造品变得更加容易,比如语音和视频作假、艺术仿造品等,以及有针对性的攻击。所涉及的严重道德问题可能会损害声誉或引起政治冲突。

  • 黑盒特性:这些模型仍然需要精心的训练,并且可能会因其黑盒特性而产生不可接受的结果。事实库模型做出反应的依据常常含糊不清,这可能会在数据集中传播下游偏见。此类模型的同质化会引起单点故障。

  • 知识产权:训练模型所使用的是作品的语料库,目前还不清楚如果这些内容来自于他人的知识产权,有什么法律先例可以支持这些内容的反复使用。

问题:D&A领导者如何以道德的方式将AI基础模型融入到他们的企业机构?

回答:首先可以从自然语言处理(NLP)用例开始,比如分类、总结和不需要面对客户的场景的文本生成,并选择任务专用的预训练模型以避免昂贵的定制和训练。应首选输出结果由人类审核的用例。可以创建一份概述GPT等AI基础模型优点、风险、机会和布局的战略文件,这将有助于确定具体用例的收益是否大于风险。

使用云端API消费模型,并选择能够提供降低操作复杂性、减少能耗和优化总运营成本所需的准确性和性能的最小模型。优先考虑通过发布使用指南、执行这些指南、记录已知漏洞和弱点以及主动披露有害行为和误用情况来促进负责任的模型部署的厂商。

声明:本文来自Gartner公司,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。