ChatGPT爱“胡说”?OpenAI揭秘:评估机制在“奖励”猜测致幻觉频发

资讯 » 科技头条 2025-09-09

在人工智能领域,一个长期困扰研发者的问题是模型生成的“幻觉”——那些听起来头头是道,实则毫无根据的回答。这种现象的根源,近期被一项来自OpenAI的研究揭示:问题不在于模型本身的设计缺陷,而在于评估体系对“猜测”行为的隐性奖励。

传统AI基准测试采用“非黑即白”的评分逻辑:正确答案得分,错误或回避问题均不得分。这种机制下,模型若选择承认“不确定”,其表现评分会直接下滑;而若冒险编造一个看似合理的回答,哪怕内容错误,只要碰巧匹配正确答案,就能获得高分。OpenAI的研究指出,这种评估方式实质上在“鼓励”模型进行不负责任的猜测,而非追求真实性与可靠性。

研究团队以考试场景类比:当学生面对不确定的题目时,若“空着不答”会被扣分,而“蒙一个答案”却可能得分,那么最优策略自然是“尽量猜”。大型语言模型(LLMs)的训练过程正是如此——它们被优化为“应试者”,而非“知识传递者”。OpenAI研究员直言:“模型学会的是如何通过猜测提高分数,而非如何准确表达知识边界。”

实验数据进一步验证了这一结论。在对比测试中,OpenAI的新模型GPT-5 Thinking Mini与旧版o4-Mini表现出显著差异:前者准确率22%,但52%的情况下选择“弃答”(即承认不知道);后者准确率虽略高(24%),但弃答率仅1%,错误率却高达75%。这意味着,o4-Mini更倾向于“瞎猜”,导致正确与错误回答同时增加,而GPT-5则通过提高弃答率,降低了错误信息的传播风险。

“现有评估体系的问题在于,它用准确率单一指标衡量模型,却忽视了错误回答比‘不知道’的后果更严重。”研究团队强调。例如,在医疗或金融咨询场景中,用户更需要的是可靠的信息,而非一个听起来自信但可能错误的答案。若评估标准继续奖励“侥幸猜对”,模型将逐渐依赖这种策略,最终损害用户信任。

针对这一困境,OpenAI提出的核心解决方案是调整评估逻辑:不再因模型“不回答”而惩罚,转而鼓励其表达不确定性。研究人员认为,无需重构模型架构,仅需修改评分方式——例如,对“弃答”给予一定容忍度,同时大幅降低错误回答的得分权重。这种转变旨在引导模型从“追求分数”转向“追求可信度”。

这一思路标志着AI研发方向的微妙转变。过去,行业竞相追求模型的响应速度、语言流畅度等表面指标,却忽视了“可靠性”这一根本需求。OpenAI的研究提醒,真正的挑战在于平衡“知识表达”与“谦逊态度”——让模型既能传递已知信息,又能清晰界定自身能力边界。毕竟,在需要专业建议的场景中,用户宁愿听到“我不知道”,也不愿被一个自信的谎言误导。



免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。由用户投稿,经过编辑审核收录,不代表头部财经观点和立场。
证券投资市场有风险,投资需谨慎!请勿添加文章的手机号码、公众号等信息,谨防上当受骗!如若本网有任何内容侵犯您的权益,请及时联系我们。