9月25日消息,來自亞利桑那州立大學的科研團隊利用PlanBench基準,測試了OpenAIo1模型的規(guī)劃能力。研究結果表明o1模型取得了長足的進步,但仍然存在很大的局限性。
PlanBench開發(fā)于2022年,用于評估人工智能系統(tǒng)的規(guī)劃能力,包括600個來自Blocksworld領域的任務,其中積木必須按照特定順序堆疊。
在Blocksworld任務中,OpenAI的o1模型準確率達到97.8%,大大超過了之前的最佳語言模型LLaMA3.1405B(準確率為62.6%)。
在更具挑戰(zhàn)性的“MysteryBlocksworld”加密版本中,傳統(tǒng)模型幾乎全部失敗,而OpenAI的o1模型準確率達到52.8%。
研究人員還測試了一種新的隨機變體,以排除o1的性能可能源于其訓練集中的基準數(shù)據(jù)。在這次測試中,O1的準確率降至37.3%,但仍遠遠超過了得分接近零的其它模型。
隨著任務越來越復雜,o1的表現(xiàn)也急劇下降。在需要20到40個規(guī)劃步驟的問題上,o1在較簡單測試中的準確率從97.8%下降到只有23.63%。
該模型在識別無法解決的任務方面也很吃力,只有27%的時間能夠正確識別。在54%的情況下,它錯誤地生成了完整但不可能完成的計劃。
雖然o1在基準性能上實現(xiàn)了“量子改進”(Quantumimprovement),但它并不能保證解決方案的正確性。如快速向下算法等經(jīng)典的規(guī)劃算法,可以在更短的計算時間內實現(xiàn)完美的準確性。
研究還強調了o1的高資源消耗,運行這些測試需要花費近1900美元,而經(jīng)典算法在標準計算機上運行幾乎不需要任何成本。
研究人員強調,對人工智能系統(tǒng)進行公平比較必須考慮準確性、效率、成本和可靠性。他們的研究結果表明,雖然像o1這樣的人工智能模型在復雜推理任務方面取得了進步,但這些能力還不夠強大。
分享到微信 ×
打開微信,點擊底部的“發(fā)現(xiàn)”,
使用“掃一掃”即可將網(wǎng)頁分享至朋友圈。