OpenAI如何打击幻觉?
(资料图)
编者按:本文来自微信公众号“新智元”(ID:AI_era),作者:新智元,编辑:桃子 拉燕,创业邦经授权发布。
大模型的幻觉问题,就连马斯克搬出TruthGPT也搞不定。
上个月,马斯克疯狂呼吁叫停超级AI研发6个月。
还没等多久,老马就坐不住了,直接官宣推出一个名为TruthGPT的AI平台。
马斯克曾表示,TruthGPT将是一个「最大的求真人工智能」,它将试图理解宇宙的本质。
他强调,一个关心理解宇宙的人工智能不太可能灭绝人类,因为我们是宇宙中有趣的一部分。
然而,「幻觉」,到现在还没有哪个语言模型能够搞定。
最近,OpenAI联合创始人便解释为什么TruthGPT的远大理想的实现是如此地困难。
马斯克的X.AI想要建立的TruthGPT,是一种诚实的语言模型。
这么做,直接将矛头对准ChatGPT。
因为,此前,像ChatGPT这样的AI系统经常产生错误输出等经典幻觉案例,甚至支持某些政治信仰的报道。
虽然ChatGPT可以让用户更多控制语言模型去解决问题,但「幻觉」仍然是OpenAI、谷歌以及未来马斯克的人工智能公司必须处理的核心问题。
OpenAI联合创始人兼研究员John Schulman在他的演讲「RL和Truthfulness – Towards TruthGPT」中讨论了这些挑战以及如何应对这些挑战。
根据Schulman的说法,幻觉大致可以分为两种类型:
1. 「模式完成行为」,即语言模型无法表达自己的不确定性,无法质疑提示中的前提,或者继续之前犯的错误。
2. 模型猜测错误。
由于语言模型代表一种知识图谱,其中包含来自其自身网络中训练数据的事实,因此微调可以理解为学习一个函数,该函数在该知识图谱上运行并输出token预测。
例如,微调数据集可能包含「星球大战的类型是什么?」这个问题,以及答案「科幻」。
如果这些信息已经在原始训练数据中,即它是知识图谱的一部分,那么模型不会学习新信息,而是学习一种行为——输出正确答案。这种微调也被称为「行为克隆」。
但问题是,如果问题是关于「Han Solo的衍生电影的名字是什么」出现在微调数据集中。
但如果答案「Solo」不是原始训练数据集的一部分(也不是知识图谱的一部分),即使网络不知道答案,它也会学习回答。
使用实际上正确但不在知识图谱中的答案进行微调,从而教会网络编造答案——即产生「幻觉」。相反,用不正确的答案进行训练会导致网络隐瞒信息。
因此,理想情况下,行为克隆应始终基于网络知识,但创建或评估数据集的人类工作者来说,通常不知道这种知识,例如指令调优。
根据Schulman的说法,当其他模型创建微调数据集时也存在这个问题,就像羊驼公式的情况一样。
他预测,具有较小知识图谱的较小网络,不仅会学会使用ChatGPT的输出给出答案和遵循指令,而且学会更频繁地产生幻觉。
首先,对于简单的问题来说,语言模型大部分情况下能预测自己是否知道答案,还能表达不确定性。
因此,Schulman表示,微调数据集的时候,必须得让模型学会怎么表达不确定、怎么应对前提被更改的情况,以及错误被承认的情况。
要把这些情况的实例喂给模型,让它们学习。
但是模型在时机方面还是欠练,也就是说,它们并不知道该何时执行这些操作。
Schulman表示,这就是强化学习(RL)该出场的地方了。比如,基于人类反馈的强化学习(Reinforcement Learning with Human Feedback,RLHF)。
应用RL,模型就可以学习「行为边界」,学会何时做出何种行为。
而另一个难题,则是检索和引用来源的能力,例如通过WebGPT中所展示的能力,或者最近在ChatGPT的浏览器插件中所呈现的机制。
问题在于,有了复制行为的能力和RLHF,为什么ChatGPT还会产生幻觉?
原因在于问题本身的难易。
虽然上述方法对于简短的问题和答案效果不错,但对于ChatGPT中常见的长格式设置就会出现其他问题了。
一方面,完全错误的答案也不太可能,大部分情况都是错的和对的混在一起。
在极端情况下,可能就是100行代码中的一个错误而已。
在其他情况下,这些信息在传统意义上并不能说是错的,而是有误导性的。因此,在像ChatGPT这样的系统中,人们很难根据信息量或者正确性来衡量输出的质量。
但这种衡量对于旨在训练复杂行为边界的RL算法却非常重要。
目前,OpenAI依托于RLHF的基于排名的奖励模型,该模型能够预测它认为两个答案中哪个更好,但不会给出有效的信号来明确哪个答案好了多少、信息量大了多少或正确了多少。
Schulman表示,它缺乏向模型提供反馈以学习精细行为边界的能力。而这种精细的行为边界,才是有可能解决幻觉的道路。
此外,此过程还会因为RLHF标记过程中的人为出错而变得更加复杂。
因此,虽然Schulman将RL视作减少幻觉的重要方式之一,但他认为仍然存在许多还没解决的问题。
除了前面提到的奖励模型究竟需要什么样子才能引导正确的行为之外,RLHF目前仅依赖于人类的判准。
这可能会使知识的生成变得更加困难。因为对未来的预测有时会导致不那么令人信服的表述。
然而,Schulman认为,知识的生成是语言模型的下一个重要步骤,同时,他认为对未来的预测和给出推理规则等问题的理论构建,是亟待解决的下一类开放性问题。
Schulman说,一种可能的解决方案是,用其他AI模型来训练语言模型。
OpenAI也认为,这种方法对于AI对齐来说,很有意义。
作为ChatGPT架构师,John Schulman早在2015年还在读博士学位的他,就加入OpenAI成为联合创始人之一。
在一次采访中,Schulman解释了自己加入OpenAI的原因:
我想做人工智能方面的研究,我认为OpenAI这家公司的使命雄心勃勃,并且致力打造通用人工智能。
尽管,在当时谈论AGI似乎有些疯狂,但我认为开始考虑它是合理的,我希望在一个地方谈论AGI是可以接受的。
另外,据Schulman透露,OpenAI将人类反馈强化学习这一方法 (RLHF)引入ChatGPT的想法可以追溯到17年了。
当时,也是OpenAI的成员,曾发表了一篇论文「从人类偏好中进行深度强化学习」就提到了这一方法。
论文地址:https://arxiv.org/pdf/1706.03741.pdf
OpenAI安全团队之所以致力于这项工作,是因为想让自己的模型符合人类的偏好ーー试图让模型真正倾听人类意见,并试图做人类想做的事情。
在GPT-3完成训练的时候,然后Schulman决定加入这股潮流,因为他看到了整个研究方向的潜力。
当被问到第一次使用ChatGPT时,第一反应是什么的时候,Schulman的话语中透露着「无感」。
还记得去年ChatGPT横空出世,让许多人瞬间炸脑。
而在OpenAI内部没有人对ChatGPT感到兴奋。因为发布的ChatGPT是一个基于GPT-3.5较弱的模型,那时候同事们在玩转GPT-4了。
所以在那个时候,OpenAI没有人对ChatGPT感到兴奋,因为有这么一个更强大,更聪明的模型已经被训练过了。
对于未来人工智能下一前沿领域看法,Schulman称,AI在更艰难的任务上不断进步,然后,问题就来了,人类应该做些什么,在哪些任务下,人类可以在大模型帮助下有更大影响力,做更多的工作。
参考资料:
https://the-decoder.com/elon-musks-truthgpt-is-complicated-says-openai-co-founder/
本文(含图片)为合作媒体授权创业邦转载,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。