亚洲精品,日韩av,亚洲国产一区二区三区亚瑟,玩弄寡妇丰满肉体,香蕉久久夜色精品升级完成,亚洲av无码成人精品区一区

  • 科技·商業(yè)·財經(jīng)媒體
科技·商業(yè)·財經(jīng)

?OpenAI研究人員:破解大語言模型“幻覺”需從評估指標入手,避免獎勵猜測?

   時間:2025-09-07 00:17 作者:沈瑾瑜

在人工智能領(lǐng)域,大語言模型的“幻覺”問題長期困擾著行業(yè)——這些模型有時會將錯誤信息當作事實輸出,幾乎所有主流產(chǎn)品都存在這一缺陷。近日,OpenAI的研究團隊在最新論文中提出,該問題的根源在于現(xiàn)有訓(xùn)練機制過度鼓勵模型“猜測答案”,而非坦誠表達不確定性。

研究指出,當前模型訓(xùn)練過程中,評估標準更傾向于獎勵“自信回答”,即使答案錯誤也能獲得較高分數(shù)。這種機制導(dǎo)致模型被優(yōu)化為“考試型選手”,在面對不確定問題時傾向于猜測而非承認“不知道”。研究人員比喻稱,模型如同被迫參加一場永遠沒有“不確定”選項的考試,而現(xiàn)實世界的問題往往沒有絕對正確的答案。

不同模型在這一問題上的表現(xiàn)存在顯著差異。OpenAI此前發(fā)布的對比數(shù)據(jù)顯示,Claude模型在面對不確定信息時更傾向于拒絕回答,而非給出錯誤答案。但研究團隊同時指出,這種策略雖然降低了幻覺風(fēng)險,卻也導(dǎo)致拒答率過高,可能影響用戶實際使用體驗。

論文強調(diào),現(xiàn)有評估體系與真實場景需求嚴重脫節(jié)。人類在現(xiàn)實互動中會逐漸學(xué)會表達不確定性的價值,但模型依賴的標準化測試卻懲罰了“不確定”的回答。研究人員認為,這導(dǎo)致模型始終處于“考試模式”,將復(fù)雜問題簡化為非黑即白的選擇。

“問題的核心在于評估指標的錯位?!毖芯繄F隊提出,必須重新設(shè)計評分機制,避免模型因拒絕回答不確定問題而被扣分。當前廣泛使用的基于準確率的評估方式需要更新,新的打分體系應(yīng)當抑制模型“亂猜”的沖動。

OpenAI在配套博文中進一步解釋,如果排行榜繼續(xù)獎勵僥幸正確的回答,模型開發(fā)者就會持續(xù)優(yōu)化猜測能力,而非提升真實理解水平。研究團隊呼吁行業(yè)建立更符合現(xiàn)實需求的評估標準,例如引入對不確定性表達的獎勵機制,或設(shè)計能區(qū)分“合理猜測”與“隨意回答”的評分模型。

 
 
更多>同類內(nèi)容
全站最新
熱門內(nèi)容