AI幻觉背后的真相:OpenAI的新策略引发热议!

2023.06.19

AI幻觉背后的真相:OpenAI的新策略引发热议!

  AI的快速发展给我们的生活带来了诸多便利和创新,但与此同时,也引发了一系列问题和担忧。其中一个重要问题是AI模型的"幻觉"现象,即模型生成的内容不基于真实数据,而是模型自身的想象力。OpenAI作为一家领先的人工智能公司,意识到这个问题的重要性,并提出了一种新的训练方法,旨在对抗人工智能幻觉。

什么是人工智能幻觉?

  人工智能幻觉是指AI模型生成的内容并非基于现实世界的数据,而是模型自己创造的虚构信息。例如,像OpenAI的聊天机器人ChatGPT和谷歌的Bard等工具在回答用户提问时,可能会捏造一些看似权威和准确的答案,但事实上是虚假的。举例来说,在今年2月,谷歌发布了一段关于Bard工具的演示视频,然而视频中关于美国韦伯太空望远镜的描述却存在一些错误。此外,最近有几位纽约的律师使用ChatGPT来撰写法律文件,然而ChatGPT却描述了一系列完全虚构的案例,这些律师可能会因此面临处罚。这些情况引发了对AI应用的一些质疑和反思。这种幻觉可能带来道德、社会和实际问题,因此需要得到解决。

OpenAI的新方法:过程监督

  为了对抗人工智能幻觉现象,OpenAI提出了一种新的训练策略,称为"过程监督"(process supervision)。与传统方法仅奖励最终正确结论不同,过程监督鼓励模型在推理过程中的每个正确步骤都获得奖励。这一策略的核心思想是模仿人类的"思维链",使模型更加合理和准确地进行推理。

  OpenAI的研究人员在报告中强调,发现和减轻模型的逻辑错误和幻觉是构建通用人工智能(AGI)的关键一步。他们通过发布一个包含80万个人类标签的数据集来支持这项研究。通过过程监督的训练方法,研究人员发现模型生成的回答更加清晰和合理,有助于提高人工智能在推理问题上的性能和准确性。

  尽管过程监督的训练模式有望解决人工智能虚假答案的问题,但一些独立专家对其效果表示怀疑。美国电子隐私信息中心资深律师本·魏特斯(Ben Winters)就表示,当前的生成式人工智能仍处于野蛮生长时期,OpenAI的新模式尚未能够实质性地解决AI胡编乱造错误答案的问题。对于OpenAI是否将研究论文成果应用到实际产品中,魏特斯认为这是至关重要的。如果OpenAI没有相关计划,这将引发社会对于他们最终产品的质疑,人们想知道OpenAI到底会向公众发布怎样的产品。

  魏特斯希望能亲自查看OpenAI的完整数据集和相关例子,以更全面地评估新训练模式的有效性和潜在风险。他的质疑反映了社会对于人工智能发展的关注,人们希望科技公司在推动技术进步的同时,也能充分考虑到伦理和社会问题,确保人工智能的应用符合公众利益和价值观。

  OpenAI的研究为解决人工智能幻觉现象提供了新的思路和方法。过程监督的训练策略可以提高模型在推理问题上的性能和准确性,使其更加符合人类思维方式。然而,我们仍然需要继续关注AI模型的伦理和社会影响,并进行持续的监管和评估,以确保其在实际应用中的合理性和可靠性。只有在科技发展与社会责任兼顾的前提下,人工智能才能为人类带来更大的福祉和进步。


 

Copyright © 2023 跨境导航 豫ICP备18021440号-1 声明:网站上的服务均为第三方提供,与本站无关。请用户注意甄别服务质量,避免上当受骗。