免費谘詢熱線
13621929115給機器(qì)學習算法與Python學習(xí)加(jiā)星標,提升AI技能)在學習與定製AI模型的過程(chéng)中,開發(fā)者會麵對(duì)各種各(gè)樣的概念,在(zài)深度學習領域,有一個名(míng)詞正在被越來越頻繁(fán)地得到關注:遷(qiān)移學(xué)習它相(xiàng)比效果表現好(hǎo)的監督學習來說,可以減去大量的枯(kū)燥標注過(guò)程,簡單來說就是在大數據集訓練的預訓練模型上進(jìn)行小數據集的遷(qiān)移,以獲沙盤模型得對新數據較好的識別效果,因(yīn)其能夠大量節約(yuē)新模型開發的成(chéng)本,在實(shí)際應用中被更廣泛地關注。
EasyDL平台引入了百度超(chāo)大規模(mó)視覺預(yù)訓練模型,結合遷移學習工(gōng)具,幫(bāng)助開(kāi)發者使用少(shǎo)量(liàng)數據,快速定製高精度AI模型在訓練一個深(shēn)度學習模(mó)型時,通常需要大量的數據,但(dàn)數據的采集、標注等數(shù)據準備過程會耗費大量的人力、金沙盤模型錢和時間成本(běn)。
為解決此問(wèn)題,www.17C.com可(kě)以使用預訓練模型以預訓(xùn)練模型A作為起點,在此基礎上進行重新調優,利用預訓練模型及(jí)它學(xué)習的知識來提高其執行(háng)另一項任務B的能(néng)力,簡單來說就(jiù)是在大數據集訓練的預訓練模型上進行小數據(jù)集的遷移,以獲得(dé)對新數(shù)據較好(hǎo)的識別效果,這就是遷移學習(Transfer Learning)沙盤模型。
遷移學習作為一種機器學習方法,廣泛應用於各類深度學習任務中在具體實現遷移(yí)學習時(shí),有多種深度網絡遷移方法,其中的Fine-tune(微調)是最簡單的一種深度網絡遷移方法,它主要是將已訓練好的模型參(cān)數遷移到新(xīn)的模型來幫助新模型(xíng)訓練。
在實際應用中,針對一個(gè)任務,www.17C.com通常不會從頭開始訓練(liàn)一個模型,因(yīn)為這非沙盤模型(xíng)常耗時耗力,不僅需要大量的計算資源、豐富的經驗去(qù)保證模型的效果,還需(xū)要ImageNet量級(千萬級)的數據集保證模型的泛化性,需要支付高昂的成本。
因此,一般www.17C.com會選擇在公開的大數據集上訓(xùn)練收斂、且效果較好的模型,作為預訓練權重,在此基礎上使用業務數據對模型進行Fin-tune在Fine-tune時,沙盤模型默認(rèn)源域(預訓練模型)、目標域數據集(用(yòng)戶業務數據集)需要具有較強相關性,即數據同分布(bù),這樣我(wǒ)們能利用預訓練模型的大量知識儲(chǔ)備,快速高效地訓練出針對特定業務場景並具有優秀效果的(de)模型。
但在應用預訓(xùn)練模型到(dào)實(shí)際場(chǎng)景時,很多用戶會麵臨數據集與源數據集分布不同的問題比如,預訓練模型(xíng)的數據都(dōu)是自然風景,但用戶沙盤模型的數(shù)據集都是動漫人物類(lèi)似這種源數據集和目標數(shù)據差(chà)別較大的問題,在(zài)具體應用中較易導致負向遷(qiān)移,具體表現(xiàn)為訓練(liàn)收斂慢,模型效果(guǒ)差等。
因此,一個(gè)包含各類場景、覆蓋用戶各(gè)類需求的超大規模數(shù)據集就十分重要,通過這個包羅萬象(xiàng)的超大(dà)規模數據集訓練所得的(de)模(mó)型,才能夠更好地適應來自各行各業用戶的需求(qiú),更好地Fine-沙盤模型tune用戶(hù)的業務數據集,幫(bāng)助用戶在自己的數據集上(shàng)得到效果(guǒ)更好的模型。
百度(dù)超大規模預訓練模型便在此背景下產生,覆蓋自然語言處理和視覺兩大方向在自然語言處理方向,百度自研了業界效果最好的預訓練模型文心(xīn)ERNIE,開創性地將大數據(jù)預訓練與(yǔ)多源豐富知識(shí)相結合,持續(xù)學習海量數據中的知識,將機器語義理(lǐ)解(jiě)水平提沙盤(pán)模型(xíng)升到一個新的高度。
文心(xīn)ERNIE在中英文的16個任務(wù)上已(yǐ)經超越了(le)業界最好模型,全麵適用於各類NLP應用(yòng)場景目前,EasyDL已預置(zhì)了領先的預訓練模型文心ERNIE2.0,並配(pèi)套了多種NLP經典算法網絡,支持了文本分類、短文本匹配和序列標注等典型(xíng)文本處理任務。
視覺方向(xiàng),百(bǎi)度自研超大規模(mó)視覺(jiào)預訓練模型覆沙盤模型蓋圖像(xiàng)分類與(yǔ)物體檢測兩個方向(xiàng)圖像分類的預(yù)訓(xùn)練模型,用海量互聯網數據(jù),包括10萬+的物體類別,6500萬的超大規模圖像數量,進行大規模訓練所(suǒ)得,適(shì)應於各類(lèi)圖像分類場景;物(wù)體檢測的(de)預訓練模型,用800+的類(lèi)別,170萬張(zhāng)圖(tú)片以及1000萬+物體框的數據集,進行(háng)大規模訓練所得,適應於各類物(wù)體檢測應用場景。沙盤模型
相(xiàng)對於普通使用公開數據集訓練的預訓練模型,在各類數據集上都有不同程度效果提升,模(mó)型(xíng)效(xiào)果和泛(fàn)化性都有顯著提升(以下實驗數據集均(jun1)來(lái)自不同行業)圖像分類在(zài)圖像分類模型中,使用(yòng)百度超大規模預訓練(liàn)模型的Resnet50_vd相比普通模型在(zài)各類數(shù)據集上平均提升(shēng)12.76%,使用百度超(chāo)大規模預訓練模型的Resne沙盤模型t101_vd,相比於普通預訓練模型,平均提升13.03%,使用百度超大規模預訓練模型的mobilesnetV3_large_1x,相(xiàng)比於普通預訓練模型,平均提升8.04%。
並且,在圖像分類方向,還新增了11個模型,包括(kuò):EffcientNetB0_small,EfficientNetB4,Mobil沙盤模型eNetV3_large_x1_0,ResNet18_vd, ResNeXt101_32x16d_wsl, Res2Net101_vd_26w_4s, SE_ResNet18_vd, Xception71,還有基於百(bǎi)度超大規模預(yù)訓(xùn)練模型訓練出來的ResNet50_vd,ResNet101_vd和Mo沙(shā)盤模型bileNetV3_large_x1_0,其中比(bǐ)較特殊的幾個模型,EffcientNetB0_small是去掉SE模塊的EffcientNetB0,在保(bǎo)證精度變化不大的同(tóng)時,大幅提升訓練和推理速度,ResNeXt101_32x16d_wsl 是基於超大量圖片的弱監督預訓練(liàn)模型,準確率高,但預測時間相(xiàng)沙盤模型對增加,Res2Net101_vd_26w_4s則是在單個殘差塊內進一步構造了(le)分(fèn)層的殘差類連接,比ResNet101準確度更高;
新增的分類模型的推理時間、效果,以及(jí)支持的(de)部署方式如(rú)下表所示:
注:以上模型均基於ImageNet1k分類數據集訓練和測試更多預置模型,參見EasyDL官網:https://沙盤模型ai.baidu.com/ai-doc/EASYDL/0k38n3p16更多模型效果,參(cān)見PaddleCls:
https://paddleclas.readthedocs.io/zh_CN/latest/models/models_intro.html並且,為了進一步提升圖像分類模型的模型(xíng)效果,在(zài)訓沙盤模型練層麵,圖像分類(lèi)新增了mix_up和label_smoothing功能,可以在單標簽分類(lèi)任務中,根據模型的訓練情況選擇開啟或者關閉。
mix_up是一(yī)種數據增強方(fāng)式,它從訓練樣本中隨機抽取了兩個樣本進行簡單的(de)隨機加權(quán)求和,並保存(cún)這個權重,同時樣本的標簽也對應地用相同的權重加權求和,然後(hòu)預測(cè)結果與加權求(qiú)沙盤模型和之(zhī)後的標簽求損失,通過混合不同樣本的特征,能夠減少模型對錯誤標(biāo)簽(qiān)的記憶力,增強(qiáng)模型的泛化能力。
Label_smoothing是一種正則化的方法,增加了類間的距離,減(jiǎn)少了類(lèi)內的距(jù)離,避免模型對預測(cè)結果過於confident而導致(zhì)對真實(shí)情況的預測偏(piān)移(yí),一定程度上緩解由於label不夠soft導(dǎo)致過擬合沙(shā)盤模型的問題。
物體檢測(cè)在(zài)物體檢測模型中,使用百度超(chāo)大規模預訓練模型的(de)YOLOv3_DarkNet相比普通模型在各類數據集(jí)上平均提升4.53 %,使用百度(dù)超大規模預(yù)訓練模型的Faster_RCNN,相比於普通預訓練模型,平均提升1.39%。
並且,在物體檢測方向,新增了Cascade_Rcnn_ResNet5沙盤模型0_FPN、YOLOv3_ResNet50vd_DCN、YOLOv3_mobilesNetv1網絡,以及(jí)基於百度超大規模預訓練模型訓練出來的YOLOv3_Darknet、Faster_R-CNN_ResNet50_FPN,其中,Cascade_Rcnn_ResNet50_FPN通過級聯多個檢測器以及設沙盤模型置不同IOU的重采樣機製,使得檢測器(qì)的精度、和定位(wèi)的準確度進一(yī)步提升。
此外,針對(duì)用戶的需(xū)求,新增兩種(zhǒng)YOLOv3的變種模型,其中,YOLOv3_mobilesNetv1,是將原來的YOLOv3骨架網絡替換為mobilesNetv1,相比YOLOv3_DarkNet, 新模型在GPU上的推理速度提(tí)升約73沙盤模型%。
而YOLOv3_ResNet50vd_DCN是將骨架網絡更換為ResNet50-VD,相比原生的DarkNet53網絡在速度和精度上都有一定的優勢,在保證GPU推理速度基本不(bú)變(biàn)的情況下,提(tí)升了1%的模(mó)型效果,同時,因增加了可形變卷積,對不規則物體的檢測效果也有一(yī)定的正向提升。
各檢測模型的效果,以沙盤模型及支持的部署方式如下表所示(shì):
注:以(yǐ)上模型均基(jī)於COCO17數據集訓練和測試更多預置模型,參見EasyDL官網https://ai.baidu.com/ai-doc/EASYDL/0k38n3p16更多模型效果(guǒ),參見PaddleDetection: 。
https://github.com/Paddle沙盤模型Paddle/PaddleDetection/blob/release/0.3/docs/MODEL_ZOO_cn.md各模型的推理時間如下(xià)表所示:
注:以上(shàng)模(mó)型均基於coco17訓練所得更多模型速度詳情(qíng),參(cān)見PaddleDetection:https://github.com/PaddlePaddl沙(shā)盤模型e/PaddleDetection/blob/release/0.3/docs/advanced_tutorials/deploy/BENCHMARK_INFER_cn.md。
百度(dù)超大規模視覺預(yù)訓練模型對比公開數據集訓練的預訓練模型,效果提升明顯,目前這些模(mó)型已經預置在EasyDL中正式發布(bù)Easy沙盤模型DL是飛槳企業版零門檻AI開發平台EasyDL,麵向專業算法工程師群體,專門推(tuī)出(chū)的AI模(mó)型開發與服務平台。
支持視覺及自然語言處理兩大技(jì)術方向,可靈活支持腳本調參及(jí)Notebook兩類(lèi)開發(fā)方式,預置了(le)幾十種經(jīng)典網絡和百度海量數據訓練的預訓練模型(xíng),模型效果在業界保持領先,同時支持公有(yǒu)雲/私有化/設備端等沙盤模(mó)型靈活的部署方案,開發效率高、訓練速度快,同時設備(bèi)端輕量級部署和加速方案使得顯存占用更少,預測速度更快。
開發者可以搜(sōu)索(suǒ)進入EasyDL平台,選擇【新建任務】-【配(pèi)置任(rèn)務】-【選擇預(yù)訓練模型(xíng)】處選擇【百度超大規模數據集 通用分類與訓練模(mó)型】
EasyDL零門檻AI開發平台,麵向AI開發全流程提供(gòng)靈活易用的沙(shā)盤模型一站式平台方案包(bāo)含了AI開發過程中的三大流程:數據服務、訓練與開發、模型部署(shǔ)在數據服務上,剛(gāng)剛上線的EasyData智能數據服務平台覆蓋了數據(jù)采集、管理、清洗、標(biāo)注、安全,並支持接入EasyDL進行訓練,在模型訓練部(bù)署之後(hòu),在(zài)雲服務授權的前提下完成(chéng)數據回流,針對性地進行難例挖掘,獲(huò)得更有助於模型效果(guǒ)沙盤(pán)模型(xíng)提升的高質量數據。
EasyData是業內首家推出了軟硬一體、端雲協同自動數據采集方案的平台,有離線(xiàn)視頻數(shù)據(jù)采集的用戶,可以下載EasyData的數據采集SDK,通過定時拍照、視頻抽(chōu)幀等方式,實時統(tǒng)計到雲端(duān)進行處理在訓練與開發上,除了剛剛提到(dào)的大規模(mó)預訓練模型來(lái)提升模型性能,EasyDL還采(cǎi)用(yòng)了Aut沙盤模型oDL自動搜索最優網絡及超參數,以及自動數據增強、自動超(chāo)參搜索來增加數據量和多樣性,分布式訓練加速等豐富(fù)的訓練機製提升模型的訓練速度。
在模型部署上,EasyDL提供端雲協同的多種靈活部署方式,包括公有雲API、設備端SDK、本地服務器部署、軟硬一體產品(pǐn)值得關注的是,在EasyDL軟硬一(yī)體產品矩陣方案(àn)沙盤模型中,提供了六款軟硬一體方案(àn),覆蓋超高性能,高性能和低成本小功耗三種不同形態,滿足開發者的各類業務需求,已經在幾十個行業上(shàng)百個場景中落地應用。
而近期(qī),百度針對各(gè)行各業智能化轉型需求的爆(bào)發式增長,更是基於EasyDL重磅推出“萬有引(yǐn)力”計(jì)劃,為有AI應用需求的(de)企業提(tí)供(gòng)專項基金,計劃助(zhù)力萬家企業,快速(sù)創享沙盤模型AI能(néng)力!
參與本次活動的企業及個人開發者,隻需在2020年9月23日~2021年3月23日期間,登錄百度大腦AI開放平台,或百度搜索進入“百度EasyDL‘萬(wàn)有引力’計劃”活動頁麵入口,填寫“立即報(bào)名”相關信息,通過EasyDL經典版完成模型訓練與成功部署,有完整的個(gè)人或(huò)企業認證,即可一鍵領取總價值沙(shā)盤模型一萬元的EasyDL充值代金券!針對落地效果突出的項目,更有(yǒu)機會獲得(dé)最高十萬元的(de)特殊補貼,具體流程如下。
Copyright © 2002-2020 上海(hǎi)潤之(zhī)模型設計有限公司 版權所有 展示模型(xíng),展品模型,展廳模型,展示道具,展廳展品,展品道具,模(mó)型定製,模型公司,上海模型公司 備案號:滬ICP備20018260號