亚洲精品,日韩av,亚洲国产一区二区三区亚瑟,玩弄寡妇丰满肉体,香蕉久久夜色精品升级完成,亚洲av无码成人精品区一区

  • 科技·商業(yè)·財經媒體
科技·商業(yè)·財經

ChatGPT愛“胡說”?OpenAI揭秘:評估機制在“獎勵”猜測致幻覺頻發(fā)

   時間:2025-09-09 02:45 作者:任飛揚

在人工智能領域,一個長期困擾研發(fā)者的問題是模型生成的“幻覺”——那些聽起來頭頭是道,實則毫無根據(jù)的回答。這種現(xiàn)象的根源,近期被一項來自OpenAI的研究揭示:問題不在于模型本身的設計缺陷,而在于評估體系對“猜測”行為的隱性獎勵。

傳統(tǒng)AI基準測試采用“非黑即白”的評分邏輯:正確答案得分,錯誤或回避問題均不得分。這種機制下,模型若選擇承認“不確定”,其表現(xiàn)評分會直接下滑;而若冒險編造一個看似合理的回答,哪怕內容錯誤,只要碰巧匹配正確答案,就能獲得高分。OpenAI的研究指出,這種評估方式實質上在“鼓勵”模型進行不負責任的猜測,而非追求真實性與可靠性。

研究團隊以考試場景類比:當學生面對不確定的題目時,若“空著不答”會被扣分,而“蒙一個答案”卻可能得分,那么最優(yōu)策略自然是“盡量猜”。大型語言模型(LLMs)的訓練過程正是如此——它們被優(yōu)化為“應試者”,而非“知識傳遞者”。OpenAI研究員直言:“模型學會的是如何通過猜測提高分數(shù),而非如何準確表達知識邊界。”

實驗數(shù)據(jù)進一步驗證了這一結論。在對比測試中,OpenAI的新模型GPT-5 Thinking Mini與舊版o4-Mini表現(xiàn)出顯著差異:前者準確率22%,但52%的情況下選擇“棄答”(即承認不知道);后者準確率雖略高(24%),但棄答率僅1%,錯誤率卻高達75%。這意味著,o4-Mini更傾向于“瞎猜”,導致正確與錯誤回答同時增加,而GPT-5則通過提高棄答率,降低了錯誤信息的傳播風險。

“現(xiàn)有評估體系的問題在于,它用準確率單一指標衡量模型,卻忽視了錯誤回答比‘不知道’的后果更嚴重?!毖芯繄F隊強調。例如,在醫(yī)療或金融咨詢場景中,用戶更需要的是可靠的信息,而非一個聽起來自信但可能錯誤的答案。若評估標準繼續(xù)獎勵“僥幸猜對”,模型將逐漸依賴這種策略,最終損害用戶信任。

針對這一困境,OpenAI提出的核心解決方案是調整評估邏輯:不再因模型“不回答”而懲罰,轉而鼓勵其表達不確定性。研究人員認為,無需重構模型架構,僅需修改評分方式——例如,對“棄答”給予一定容忍度,同時大幅降低錯誤回答的得分權重。這種轉變旨在引導模型從“追求分數(shù)”轉向“追求可信度”。

這一思路標志著AI研發(fā)方向的微妙轉變。過去,行業(yè)競相追求模型的響應速度、語言流暢度等表面指標,卻忽視了“可靠性”這一根本需求。OpenAI的研究提醒,真正的挑戰(zhàn)在于平衡“知識表達”與“謙遜態(tài)度”——讓模型既能傳遞已知信息,又能清晰界定自身能力邊界。畢竟,在需要專業(yè)建議的場景中,用戶寧愿聽到“我不知道”,也不愿被一個自信的謊言誤導。

 
 
更多>同類內容
全站最新
熱門內容