解决AI落地的最大障碍,OpenAI找到办法了?
如何避免AI“胡说八道”?让它形成类似人类的思维链!
(资料图)
OpenAI似乎找到了解决生成式人工智能“一本正经胡说八道”的办法。
5月31日,OpenAI在其官网宣布,已经训练了一个模型,能够有助于消除生成式AI常见的“幻觉”和其他常见问题。
OpenAI表示,可以训练奖励模型来检测幻觉,奖励模型又分为结果监督(根据最终结果提供反馈)或过程监督(为思维链中的每个步骤提供反馈)模型。
也就是说,过程监督奖励推理的每个正确步骤,而结果监督只是简单地奖励正确的答案。
OpenAI表示,相比之下,过程监督有一个重要的优势——它直接训练模型以产生由人类认可的思维链:
过程监督与结果监督相比有几个一致性优势。它直接奖励遵循一致的思维链的模型,因为过程中的每一步都得到了精确的监督。
过程监督也更有可能产生可解释的推理,因为它鼓励模型遵循人类批准的过程
结果监督可能会奖励一个不一致的过程,而且通常更难审查。
OpenAI在数学数据集上测试了这两种模型,发现过程监督方法导致了“显著更好的性能”。
但需要注意的是,到目前为止,过程监督方法仅在数学领域进行了测试,并且需要更多的工作来观察它如何更普遍地执行。
此外,OpenAI没有说明这一研究需要多长时间才能应用在ChatGPT,它仍然处于研究阶段。
虽然最初的结果是好的,但OpenAI确实提到,更安全的方法会产生降低的性能,称为对齐税(alignment tax)。
目前的结果显示,在处理数学问题时,过程监督不会产生对齐税,但在一般的信息上的情况尚不知晓。
生成式AI的“幻觉”
生成式AI问世以来,围绕其编造虚假信息、“产生幻觉”的指控从未消失,这也是目前生成式AI模型最大的问题之一。
今年2月,谷歌为应对微软资助下ChatGPT,仓促推出了聊天机器人Bard,结果却被发现在演示中出现了常识性错误,导致谷歌股价大跌。
导致AI出现幻觉的原因有多种,输入数据欺骗AI程序进行错误分类是其中一种。
例如,开发人员使用数据(如图像、文本或其他类型)来训练人工智能系统,如果数据被改变或扭曲,应用程序将以不同的方式解释输入并产生不正确的结果。
幻觉可能会出现在像ChatGPT这样的基于语言的大型模型中,这是由于不正确的转换器解码,导致语言模型可能会产生一个没有不合逻辑或模糊的故事或叙述。
编辑/Somer
关键词:
上一篇:每日看点!Python装饰器
下一篇:最后一页
- 解决AI落地的最大障碍,OpenAI找到办法了?
- 每日看点!Python装饰器
- 观债|今年已发1288亿中小银行专项债 农信系统获支持大|世界时快讯
- 焦点访谈:航天接力跑 天宫启新程|消息
- 我国南方地区进入主汛期 今年汛情主要有这些特点 天天播报
- 当前报道:南财早新闻|5月PMI数据正式公布;6月起这些新规将施行
- 杭州再挂牌12宗涉宅地块,起始总价约119.53亿元 世界看点
- 一位付费API工程师如何制造了推特今年第七次崩溃?-环球时快讯
-
新洋丰(000902):5月31日北向资金减持18.32万股_当前资讯
5月31日北向资金减持18 32万股新洋丰。近5个交易日中,获北向资金减持的有5天,累计净减持98 97万股。近20
-
通讯!举例论证的议论文范文(举例论证范文150字)
想必现在有很多小伙伴对于举例论证范文150字方面的知识都比较想要了解,那么今天小好小编就为大家收集了一
-
高速变快速!黄埔至南沙东部干线免费走?!
贯穿广州南部番禺、南沙,链接黄埔的重磅快速路,又传来了最新动态。今天,《黄埔至南沙东部快速通道南沙段
-
倒计时10天!梅西给巴萨最后期限,薪资成难题,法蒂成回归牺牲品
据西班牙媒体的最新消息,梅西已经给出了最后通牒,需要巴萨在10天内确认是否可以签约,他的第一选择仍然是
X 关闭
X 关闭