ITBear旗下自媒體矩陣:

360智腦7B大模型開源,長文本處理能力達50萬字

   時間:2024-04-13 10:14:32 來源:ITBEAR編輯:茹茹 發(fā)表評論無障礙通道

【ITBEAR科技資訊】4月13日消息,360公司近日在GitHub上公開了其360智腦7B(70億參數(shù)模型),這一大模型是基于3.4萬億Tokens的語料庫進行訓(xùn)練的,主要涵蓋了中文、英文和代碼。該模型提供了4K、32K、360K三種不同的文本長度選項,其中360K(大約50萬字)被360自稱為當(dāng)前國內(nèi)開源模型中最長的文本長度。

360在多個主流評測數(shù)據(jù)集上,包括C-eval、AGIeval、MMLU、CMMLU、HellaSwag、MATH、GSM8K、Humaneval、MBPP、BBH以及LAMBADA,對其模型性能進行了全面驗證。這些評測主要考察了模型的自然語言理解、知識儲備、數(shù)學(xué)計算和推理、代碼生成以及邏輯推理等能力。結(jié)果顯示,360模型在四個評測數(shù)據(jù)集上取得了領(lǐng)先的排名,整體平均成績位列第三。

在專門為大語言模型設(shè)計的長文本理解能力評測基準LongBench中,360選擇了與中文長文本應(yīng)用最為相關(guān)的任務(wù)進行測試。結(jié)果顯示,360Zhinao-7B-Chat-32K模型在中文單文檔問答、多文檔問答、摘要以及Few-shot等任務(wù)中取得了平均第一的好成績。

同時,在英文大海撈針測試以及360自行構(gòu)造的中文大海撈針測試中,360Zhinao-7B-Chat-360K模型均達到了98%以上的準確率,顯示出優(yōu)異的長文本處理能力。

除了模型權(quán)重之外,360還開源了該模型的微調(diào)訓(xùn)練代碼和推理代碼等全套工具集,使得大模型相關(guān)開發(fā)者能夠非常方便地使用這些資源,實現(xiàn)“開箱即用”。

據(jù)ITBEAR科技資訊了解,360公司董事長周鴻祎曾表示,大模型行業(yè)在文本長度上有所追求,100萬字將很快成為行業(yè)的標配。他透露,360之所以將模型文本長度定為360K,并選擇開源這一能力,是為了讓整個行業(yè)能夠共享這一成果,避免重復(fù)勞動。周鴻祎自稱是“開源的信徒”,堅信開源能夠推動行業(yè)的進步。

舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  網(wǎng)站留言  |  RSS訂閱  |  違規(guī)舉報  |  開放轉(zhuǎn)載  |  滾動資訊  |  English Version