以下是OpenAI计划如何清除ChatGPT中的错误信息
5月31日,OpenAI宣布将努力提高ChatGPT的数学问题解决能力,旨在减少人工智能(AI)幻觉的发生。OpenAI强调减少幻觉是发展对齐AI的重要步骤。
今年3月,最新版本的ChatGPT——ChatGPT-4的推出进一步推动了人工智能进入主流。然而,生成式AI聊天机器人长期以来一直在与事实准确性进行斗争,偶尔会生成虚假信息,通常称为“幻觉”。OpenAI在其网站上发布了减少这些AI幻觉的努力。
AI幻觉是指人工智能系统生成事实不正确的输出,这些输出会误导或不受现实世界数据支持。这些幻觉可以表现为多种形式,例如生成虚假信息、编造不存在的事件或人物,或提供某些主题的不准确细节。
OpenAI进行了研究,以检查两种反馈方式的有效性:“结果监督”和“过程监督”。结果监督是基于最终结果的反馈,而过程监督为思维链中的每个步骤提供输入。OpenAI使用数学问题评估了这些模型,生成多个解,并根据每个反馈模型选择排名最高的解。
经过彻底的分析,研究团队发现,过程监督的表现更为优越,因为它鼓励模型遵循人类批准的过程。相比之下,结果监督更难以持续审查。
OpenAI认识到过程监督的影响超出了数学范畴,需要进一步调查以了解其在不同领域中的影响。该公司表示,如果观察到的结果在更广泛的背景下成立,过程监督可能比结果监督提供更有利的性能和对齐组合。为了促进研究,该公司公开发布了过程监督的完整数据集,邀请在这一领域进行探索和研究。
相关: AI需求短暂将英伟达推入万亿美元俱乐部
虽然OpenAI没有提供明确的例子说明其对幻觉进行调查的原因,但最近发生的两件事例说明了实际场景中的问题。
在最近的一起事件中,律师Steven Schwartz在Mata vs. Avianca Airlines案中承认将聊天机器人作为研究资源。然而,ChatGPT提供的信息被证明是完全捏造的,突显了这个问题。
OpenAI的ChatGPT并不是人工智能系统遇到幻觉的唯一例子。在3月份展示其聊天机器人技术时,微软的必应AI聊天机器人检查了收益报告,并为Gap和Lululemon等公司生成了不准确的数据。
杂志: 2.5万交易员押注于ChatGPT的股票选择,AI在掷骰子上表现糟糕,等等
We will continue to update 算娘; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles