ITBear旗下自媒體矩陣:

百度大腦EasyDL專業(yè)版最新上線自研超大規(guī)模視覺預(yù)訓練模型

   時間:2020-06-12 15:03:19 來源:互聯(lián)網(wǎng)編輯:星輝 發(fā)表評論無障礙通道

在學習與定制AI模型的過程中,開發(fā)者會面對各種各樣的概念,在深度學習領(lǐng)域,有一個名詞正在被越來越頻繁地得到關(guān)注:遷移學習。它相比效果表現(xiàn)好的監(jiān)督學習來說,可以減去大量的枯燥標注過程,簡單來說就是在大數(shù)據(jù)集訓練的預(yù)訓練模型上進行小數(shù)據(jù)集的遷移,以獲得對新數(shù)據(jù)較好的識別效果,因其能夠大量節(jié)約新模型開發(fā)的成本,在實際應(yīng)用中被更廣泛地關(guān)注。EasyDL專業(yè)版在最新上線的版本中,就引入了百度超大規(guī)模視覺預(yù)訓練模型,結(jié)合遷移學習工具,幫助開發(fā)者使用少量數(shù)據(jù),快速定制高精度AI模型。

在訓練一個深度學習模型時,通常需要大量的數(shù)據(jù),但數(shù)據(jù)的采集、標注等數(shù)據(jù)準備過程會耗費大量的人力、金錢和時間成本。為解決此問題,我們可以使用預(yù)訓練模型。以預(yù)訓練模型A作為起點,在此基礎(chǔ)上進行重新調(diào)優(yōu),利用預(yù)訓練模型及它學習的知識來提高其執(zhí)行另一項任務(wù)B的能力,簡單來說就是在大數(shù)據(jù)集訓練的預(yù)訓練模型上進行小數(shù)據(jù)集的遷移,以獲得對新數(shù)據(jù)較好的識別效果,這就是遷移學習(Transfer Learning)。遷移學習作為一種機器學習方法,廣泛應(yīng)用于各類深度學習任務(wù)中。在具體實現(xiàn)遷移學習時,有多種深度網(wǎng)絡(luò)遷移方法,其中的Fine-tune(微調(diào))是最簡單的一種深度網(wǎng)絡(luò)遷移方法,它主要是將已訓練好的模型參數(shù)遷移到新的模型來幫助新模型訓練。

在實際應(yīng)用中,針對一個任務(wù),我們通常不會從頭開始訓練一個模型,因為這非常耗時耗力,不僅需要大量的計算資源、豐富的經(jīng)驗去保證模型的效果,還需要ImageNet量級(千萬級)的數(shù)據(jù)集保證模型的泛化性,需要支付高昂的成本。因此,一般我們會選擇在公開的大數(shù)據(jù)集上訓練收斂、且效果較好的模型,作為預(yù)訓練權(quán)重,在此基礎(chǔ)上使用業(yè)務(wù)數(shù)據(jù)對模型進行Fin-tune。在Fine-tune時,默認源域(預(yù)訓練模型)、目標域數(shù)據(jù)集(用戶業(yè)務(wù)數(shù)據(jù)集)需要具有較強相關(guān)性,即數(shù)據(jù)同分布,這樣我們能利用預(yù)訓練模型的大量知識儲備,快速高效地訓練出針對特定業(yè)務(wù)場景并具有優(yōu)秀效果的模型。

但在應(yīng)用預(yù)訓練模型到實際場景時,很多用戶會面臨數(shù)據(jù)集與源數(shù)據(jù)集分布不同的問題。比如,預(yù)訓練模型的數(shù)據(jù)都是自然風景,但用戶的數(shù)據(jù)集都是動漫人物。類似這種源數(shù)據(jù)集和目標數(shù)據(jù)差別較大的問題,在具體應(yīng)用中較易導致負向遷移,具體表現(xiàn)為訓練收斂慢,模型效果差等。

因此,一個包含各類場景、覆蓋用戶各類需求的超大規(guī)模數(shù)據(jù)集就十分重要,通過這個包羅萬象的超大規(guī)模數(shù)據(jù)集訓練所得的模型,才能夠更好地適應(yīng)來自各行各業(yè)用戶的需求,更好地Fine-tune用戶的業(yè)務(wù)數(shù)據(jù)集,幫助用戶在自己的數(shù)據(jù)集上得到效果更好的模型。

百度超大規(guī)模預(yù)訓練模型便在此背景下產(chǎn)生,覆蓋自然語言處理和視覺兩大方向。在自然語言處理方向,百度自研了業(yè)界效果最好的預(yù)訓練模型ERNIE,開創(chuàng)性地將大數(shù)據(jù)預(yù)訓練與多源豐富知識相結(jié)合,持續(xù)學習海量數(shù)據(jù)中的知識,將機器語義理解水平提升到一個新的高度。ERNIE在中英文的16個任務(wù)上已經(jīng)超越了業(yè)界最好模型,全面適用于各類NLP應(yīng)用場景。目前,EasyDL專業(yè)版已預(yù)置了領(lǐng)先的預(yù)訓練模型ERNIE2.0,并配套了多種NLP經(jīng)典算法網(wǎng)絡(luò),支持了文本分類、短文本匹配和序列標注等典型文本處理任務(wù)。

視覺方向,百度自研超大規(guī)模視覺預(yù)訓練模型覆蓋圖像分類與物體檢測兩個方向。圖像分類的預(yù)訓練模型,用海量互聯(lián)網(wǎng)數(shù)據(jù),包括10萬+的物體類別,6500萬的超大規(guī)模圖像數(shù)量,進行大規(guī)模訓練所得,適應(yīng)于各類圖像分類場景;物體檢測的預(yù)訓練模型,用800+的類別,170萬張圖片以及1000萬+物體框的數(shù)據(jù)集,進行大規(guī)模訓練所得,適應(yīng)于各類物體檢測應(yīng)用場景。相對于普通使用公開數(shù)據(jù)集訓練的預(yù)訓練模型,在各類數(shù)據(jù)集上都有不同程度效果提升,模型效果和泛化性都有顯著提升。

(以下實驗數(shù)據(jù)集均來自不同行業(yè))

- 圖像分類

在圖像分類模型中,使用百度超大規(guī)模預(yù)訓練模型的Resnet50_vd相比普通模型在各類數(shù)據(jù)集上平均提升12.76%,使用百度超大規(guī)模預(yù)訓練模型的Resnet101_vd,相比于普通預(yù)訓練模型,平均提升13.03%,使用百度超大規(guī)模預(yù)訓練模型的MobilenetV3_large_1x,相比于普通預(yù)訓練模型,平均提升8.04%。

并且,在圖像分類方向,還新增了11個模型,包括:EffcientNetB0_small,EfficientNetB4,MobileNetV3_large_x1_0,ResNet18_vd, ResNeXt101_32x16d_wsl, Res2Net101_vd_26w_4s, SE_ResNet18_vd, Xception71,還有基于百度超大規(guī)模預(yù)訓練模型訓練出來的ResNet50_vd,ResNet101_vd和MobileNetV3_large_x1_0,其中比較特殊的幾個模型,EffcientNetB0_small是去掉SE模塊的EffcientNetB0,在保證精度變化不大的同時,大幅提升訓練和推理速度,ResNeXt101_32x16d_wsl 是基于超大量圖片的弱監(jiān)督預(yù)訓練模型,準確率高,但預(yù)測時間相對增加,Res2Net101_vd_26w_4s則是在單個殘差塊內(nèi)進一步構(gòu)造了分層的殘差類連接,比ResNet101準確度更高;

新增的分類模型的推理時間、效果,以及支持的部署方式如下表所示:

注:以上模型均基于ImageNet1k分類數(shù)據(jù)集訓練和測試

更多預(yù)置模型,參見EasyDL官網(wǎng):https://ai.baidu.com/ai-doc/EASYDL/0k38n3p16

更多模型效果,參見PaddleCls:https://paddleclas.readthedocs.io/zh_CN/latest/models/models_intro.html

并且,為了進一步提升圖像分類模型的模型效果,在訓練層面,圖像分類新增了mix_up和label_smoothing功能,可以在單標簽分類任務(wù)中,根據(jù)模型的訓練情況選擇開啟或者關(guān)閉。mix_up是一種數(shù)據(jù)增強方式,它從訓練樣本中隨機抽取了兩個樣本進行簡單的隨機加權(quán)求和,并保存這個權(quán)重,同時樣本的標簽也對應(yīng)地用相同的權(quán)重加權(quán)求和,然后預(yù)測結(jié)果與加權(quán)求和之后的標簽求損失,通過混合不同樣本的特征,能夠減少模型對錯誤標簽的記憶力,增強模型的泛化能力。Label_smoothing是一種正則化的方法,增加了類間的距離,減少了類內(nèi)的距離,避免模型對預(yù)測結(jié)果過于confident而導致對真實情況的預(yù)測偏移,一定程度上緩解由于label不夠soft導致過擬合的問題。

- 物體檢測

在物體檢測模型中,使用百度超大規(guī)模預(yù)訓練模型的YOLOv3_DarkNet相比普通模型在各類數(shù)據(jù)集上平均提升4.53 %,使用百度超大規(guī)模預(yù)訓練模型的Faster_RCNN,相比于普通預(yù)訓練模型,平均提升1.39%。

并且,在物體檢測方向,新增了Cascade_Rcnn_ResNet50_FPN、YOLOv3_ResNet50vd_DCN、YOLOv3_MobileNetv1網(wǎng)絡(luò),以及基于百度超大規(guī)模預(yù)訓練模型訓練出來的YOLOv3_Darknet、Faster_R-CNN_ResNet50_FPN,其中,Cascade_Rcnn_ResNet50_FPN通過級聯(lián)多個檢測器以及設(shè)置不同IOU的重采樣機制,使得檢測器的精度、和定位的準確度進一步提升。此外,針對用戶的需求,新增兩種YOLOv3的變種模型,其中,YOLOv3_MobileNetv1,是將原來的YOLOv3骨架網(wǎng)絡(luò)替換為MobileNetv1,相比YOLOv3_DarkNet, 新模型在GPU上的推理速度提升約73%。而YOLOv3_ResNet50vd_DCN是將骨架網(wǎng)絡(luò)更換為ResNet50-VD,相比原生的DarkNet53網(wǎng)絡(luò)在速度和精度上都有一定的優(yōu)勢,在保證GPU推理速度基本不變的情況下,提升了1%的模型效果,同時,因增加了可形變卷積,對不規(guī)則物體的檢測效果也有一定的正向提升。

各檢測模型的效果,以及支持的部署方式如下表所示:

注:以上模型均基于COCO17數(shù)據(jù)集訓練和測試。

更多預(yù)置模型,參見EasyDL官網(wǎng)https://ai.baidu.com/ai-doc/EASYDL/0k38n3p16

更多模型效果,參見PaddleDetection: https://github.com/PaddlePaddle/PaddleDetection/blob/release/0.3/docs/MODEL_ZOO_cn.md

各模型的推理時間如下表所示:

注:以上模型均基于coco17訓練所得。

更多模型速度詳情,參見PaddleDetection:

https://github.com/PaddlePaddle/PaddleDetection/blob/release/0.3/docs/advanced_tutorials/deploy/BENCHMARK_INFER_cn.md

百度超大規(guī)模視覺預(yù)訓練模型對比公開數(shù)據(jù)集訓練的預(yù)訓練模型,效果提升明顯,目前這些模型已經(jīng)預(yù)置在EasyDL專業(yè)版中正式發(fā)布。EasyDL專業(yè)版是飛槳企業(yè)版零門檻AI開發(fā)平臺EasyDL,面向?qū)I(yè)算法工程師群體,專門推出的AI模型開發(fā)與服務(wù)平臺。支持視覺及自然語言處理兩大技術(shù)方向,可靈活支持腳本調(diào)參及Notebook兩類開發(fā)方式,預(yù)置了幾十種經(jīng)典網(wǎng)絡(luò)和百度海量數(shù)據(jù)訓練的預(yù)訓練模型,模型效果在業(yè)界保持領(lǐng)先,同時支持公有云/私有化/設(shè)備端等靈活的部署方案,開發(fā)效率高、訓練速度快,同時設(shè)備端輕量級部署和加速方案使得顯存占用更少,預(yù)測速度更快。

開發(fā)者可以搜索進入EasyDL平臺,選擇專業(yè)版,選擇【新建任務(wù)】-【配置任務(wù)】-【選擇預(yù)訓練模型】處選擇【百度超大規(guī)模數(shù)據(jù)集 通用分類與訓練模型】

EasyDL零門檻AI開發(fā)平臺,面向AI開發(fā)全流程提供靈活易用的一站式平臺方案。包含了AI開發(fā)過程中的三大流程:數(shù)據(jù)服務(wù)、訓練與開發(fā)、模型部署。

在數(shù)據(jù)服務(wù)上,剛剛上線的EasyData智能數(shù)據(jù)服務(wù)平臺覆蓋了數(shù)據(jù)采集、管理、清洗、標注、安全,并支持接入EasyDL進行訓練,在模型訓練部署之后,在云服務(wù)授權(quán)的前提下完成數(shù)據(jù)回流,針對性地進行難例挖掘,獲得更有助于模型效果提升的高質(zhì)量數(shù)據(jù)。EasyData是業(yè)內(nèi)首家推出了軟硬一體、端云協(xié)同自動數(shù)據(jù)采集方案的平臺,有離線視頻數(shù)據(jù)采集的用戶,可以下載EasyData的數(shù)據(jù)采集SDK,通過定時拍照、視頻抽幀等方式,實時統(tǒng)計到云端進行處理。

在訓練與開發(fā)上,除了剛剛提到的大規(guī)模預(yù)訓練模型來提升模型性能,EasyDL還采用了AutoDL自動搜索最優(yōu)網(wǎng)絡(luò)及超參數(shù),以及自動數(shù)據(jù)增強、自動超參搜索來增加數(shù)據(jù)量和多樣性,分布式訓練加速等豐富的訓練機制提升模型的訓練速度。

在模型部署上,EasyDL提供端云協(xié)同的多種靈活部署方式,包括公有云API、設(shè)備端SDK、本地服務(wù)器部署、軟硬一體產(chǎn)品。值得關(guān)注的是,在EasyDL軟硬一體產(chǎn)品矩陣方案中,提供了六款軟硬一體方案,覆蓋超高性能,高性能和低成本小功耗三種不同形態(tài),滿足開發(fā)者的各類業(yè)務(wù)需求,已經(jīng)在幾十個行業(yè)上百個場景中落地應(yīng)用。更多軟硬一體方案信息,可以查看:https://ai.baidu.com/easydl/solution

現(xiàn)在就進入EasyDL專業(yè)版,感受預(yù)訓練模型的強大效果吧!https://ai.baidu.com/easydl/pro

舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  網(wǎng)站留言  |  RSS訂閱  |  違規(guī)舉報  |  開放轉(zhuǎn)載  |  滾動資訊  |  English Version