ITBear旗下自媒體矩陣:

Transformer推理能力引熱議,DeepMind更新論文力證其強

   時間:2024-10-23 12:57:40 來源:ITBEAR作者:朱天宇編輯:瑞雪 發(fā)表評論無障礙通道

【ITBEAR】DeepMind近期在國際象棋AI領(lǐng)域取得了新的突破,其訓(xùn)練的Transformer模型在不需要搜索算法的情況下,實現(xiàn)了大師級的下棋水平。這一成果在學(xué)術(shù)界引起了廣泛討論,并推動了相關(guān)數(shù)據(jù)集和代碼的開源。

該研究最初由一位網(wǎng)友分享,引發(fā)了關(guān)于Transformer是否能進行邏輯推理的爭論。有網(wǎng)友認(rèn)為這顯示了Transformer的推理和規(guī)劃能力,但也有人反駁稱,這只是模式匹配,而非真正的推理。

田淵棟指出,Transformer模型在閃電戰(zhàn)模式下的表現(xiàn)更多依賴于直覺和戰(zhàn)術(shù)反應(yīng),而非深度搜索和規(guī)劃。他認(rèn)為,模型雖然Elo分?jǐn)?shù)高,但未能展示出超越訓(xùn)練數(shù)據(jù)的能力。

顧全全則解釋道,推理的核心在于蘊涵,而Transformer實現(xiàn)推理的關(guān)鍵在于學(xué)習(xí)推理規(guī)則。他認(rèn)為,DeepMind的研究展示了Transformer學(xué)習(xí)推理規(guī)則的潛力,但仍需要更多理論研究來確認(rèn)其能否像人類一樣推理。

此次研究不僅限于技術(shù)本身,還引發(fā)了關(guān)于將概率算法提煉成神經(jīng)模型的通用方法的討論。有網(wǎng)友認(rèn)為這是一個重要突破,但也有學(xué)者指出模型在泛化能力上的局限性。

DeepMind于10月21日更新了論文,并推出了名為ChessBench的大規(guī)模數(shù)據(jù)集,包含1000萬個國際象棋局面及其走法與價值注釋。研究團隊還開源了數(shù)據(jù)集、模型權(quán)重以及所有訓(xùn)練和評估代碼。

對于DeepMind重回棋局研究的原因,有觀點認(rèn)為,這是AI大模型重做現(xiàn)有應(yīng)用的一個實例,旨在進一步挖掘商業(yè)價值并提升用戶體驗。

該研究對輕量化模型的發(fā)展具有重要意義。270M參數(shù)的Transformer模型不僅能在移動設(shè)備上順暢運行,還展示了小模型在滿足業(yè)務(wù)需求方面的潛力。

這項研究還引發(fā)了一個哲學(xué)問題:AI是否正在向“直覺型思維”邁進?盡管AI的策略來自對大量數(shù)據(jù)的學(xué)習(xí),與人類的“下意識反應(yīng)”存在本質(zhì)區(qū)別,但這種模擬行為為AI如何在復(fù)雜環(huán)境中進行推理提供了新的思路。

//
舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  網(wǎng)站留言  |  RSS訂閱  |  違規(guī)舉報  |  開放轉(zhuǎn)載  |  滾動資訊  |  English Version