ITBear旗下自媒體矩陣:

MIT何愷明團隊探索機器人“通用大腦”:異構(gòu)預訓練Transformer架構(gòu)引領(lǐng)新風潮

   時間:2024-11-08 18:44:35 來源:ITBEAR編輯:快訊團隊 發(fā)表評論無障礙通道

在人工智能領(lǐng)域,機器人的智能化水平一直是科研人員追求的目標。近日,麻省理工學院(MIT)的研究團隊取得了重大進展,他們提出的“異構(gòu)預訓練Transformers”(HPT)架構(gòu),為機器人實現(xiàn)通用智能奠定了堅實基礎(chǔ)。

MIT研究團隊提出的HPT架構(gòu)示意圖

以往,機器人訓練面臨著數(shù)據(jù)異質(zhì)性的問題,即每種任務(wù)和環(huán)境都需要單獨采集數(shù)據(jù),這導致了訓練過程中的重復勞動和數(shù)據(jù)采集成本高昂。而HPT架構(gòu)的提出,正是為了解決這一難題。

研究團隊指出,HPT的優(yōu)勢不僅在于其高通用性,更在于其高效和低成本。通過減少任務(wù)專用數(shù)據(jù)量,HPT在模擬和實際測試中均表現(xiàn)出色,性能比傳統(tǒng)訓練方式提升了20%以上。

HPT架構(gòu)的模塊化設(shè)計示意圖

在HPT架構(gòu)中,策略神經(jīng)網(wǎng)絡(luò)被分為三個模塊:Stem、Trunk和Head。這種模塊化設(shè)計使得HPT能夠靈活應對不同的任務(wù)和環(huán)境。Stem層負責將傳感器數(shù)據(jù)轉(zhuǎn)換為標準化令牌,Trunk層則通過Transformer架構(gòu)將這些令牌轉(zhuǎn)換為通用潛在表示,最后由Head層輸出具體的機器人動作指令。

研究團隊還建立了一個龐大的數(shù)據(jù)集,包含52個數(shù)據(jù)集和20萬條機器人軌跡,以支撐HPT的通用化訓練。這一舉措為機器人學習提供了豐富的數(shù)據(jù)資源,進一步推動了通用智能的發(fā)展。

HPT架構(gòu)還特別強調(diào)了本體感知的重要性。本體感知賦予機器人對自身狀態(tài)的把控力,在執(zhí)行高精度任務(wù)時尤為關(guān)鍵。通過將視覺和本體感知信號作為等同重要的數(shù)據(jù)源進行處理,HPT使得機器人能夠以更全面的方式理解任務(wù)。

HPT架構(gòu)中Head模塊輸出動作指令示意圖

總的來說,MIT研究團隊的這項成果為機器人通用智能的發(fā)展開辟了新的道路。通過異構(gòu)預訓練Transformers架構(gòu)的創(chuàng)新應用,我們有理由相信,未來機器人將在更多領(lǐng)域展現(xiàn)出強大的智能化能力。

舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  RSS訂閱  |  開放轉(zhuǎn)載  |  滾動資訊  |  爭議稿件處理  |  English Version