亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

邊緣AI的模型壓縮技術(shù)

星星科技指導(dǎo)員 ? 來源:embedded ? 作者:Rakesh R. Nakod ? 2023-05-05 09:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度學(xué)習(xí)在模型及其數(shù)據(jù)集方面正以驚人的速度增長。在應(yīng)用方面,深度學(xué)習(xí)市場以圖像識別為主,其次是光學(xué)字符識別,以及面部和物體識別。根據(jù) Allied 市場研究,6 年全球深度學(xué)習(xí)市場價值為 85.2020 億美元,預(yù)計(jì)到 179 年將達(dá)到 96.2030 億美元,39 年至 2 年的復(fù)合年增長率為 2021.2030%。

在某個時間點(diǎn),人們認(rèn)為大型和復(fù)雜的模型表現(xiàn)更好,但現(xiàn)在它幾乎是一個神話。隨著邊緣AI的發(fā)展,越來越多的技術(shù)將大型復(fù)雜模型轉(zhuǎn)換為可以在邊緣上運(yùn)行的簡單模型,所有這些技術(shù)結(jié)合起來執(zhí)行模型壓縮。

什么是模型壓縮?

模型壓縮是在計(jì)算能力和內(nèi)存較低的邊緣設(shè)備上部署SOTA(最先進(jìn)的)深度學(xué)習(xí)模型的過程,而不會影響模型在準(zhǔn)確性、精度、召回率等方面的性能。模型壓縮大致減少了模型中的兩件事,即大小和延遲。減小大小的重點(diǎn)是通過減少模型參數(shù)來簡化模型,從而降低執(zhí)行中的 RAM 要求和內(nèi)存中的存儲要求。延遲減少是指減少模型進(jìn)行預(yù)測或推斷結(jié)果所花費(fèi)的時間。模型大小和延遲通常同時存在,大多數(shù)技術(shù)都會減少兩者。

流行的模型壓縮技術(shù)

修剪:

修剪是最流行的模型壓縮技術(shù),它通過刪除冗余和無關(guān)緊要的參數(shù)來工作。神經(jīng)網(wǎng)絡(luò)中的這些參數(shù)可以是連接器、神經(jīng)元、通道,甚至是層。它很受歡迎,因?yàn)樗瑫r減小了模型的大小并改善了延遲。

poYBAGRUYc-ASdtTAAGyRWCNOCM104.png

修剪

修剪可以在訓(xùn)練模型時或訓(xùn)練后完成。有不同類型的修剪技術(shù),即權(quán)重/連接修剪、神經(jīng)元修剪、過濾器修剪和層修剪。

量化:

當(dāng)我們刪除神經(jīng)元、連接、過濾器、層等時。在修剪以減少加權(quán)參數(shù)的數(shù)量時,權(quán)重的大小在量化期間減小。在此過程中,大型集中的值將映射到較小集中的值。與輸入網(wǎng)絡(luò)相比,輸出網(wǎng)絡(luò)的值范圍較窄,但保留了大部分信息。有關(guān)此方法的更多詳細(xì)信息,您可以在此處閱讀我們關(guān)于模型量化的深入文章。

知識蒸餾:

在知識蒸餾過程中,在一個非常大的數(shù)據(jù)集上訓(xùn)練一個復(fù)雜而龐大的模型。微調(diào)大型模型后,它可以很好地處理看不見的數(shù)據(jù)。一旦獲得,這些知識就會轉(zhuǎn)移到較小的神經(jīng)網(wǎng)絡(luò)或模型中。同時使用教師網(wǎng)絡(luò)(較大的模型)和學(xué)生網(wǎng)絡(luò)(較小的模型)。這里存在兩個方面,知識蒸餾,我們不調(diào)整教師模型,而在遷移學(xué)習(xí)中,我們使用精確的模型和權(quán)重,在一定程度上改變模型,并根據(jù)相關(guān)任務(wù)進(jìn)行調(diào)整。

pYYBAGRUYdKAYjRlAAB9KqZ6mTk314.png

知識蒸餾系統(tǒng)

知識、蒸餾算法和師生架構(gòu)模型是典型知識蒸餾系統(tǒng)的三個主要部分,如上圖所示。

低矩陣分解:

矩陣構(gòu)成了大多數(shù)深度神經(jīng)結(jié)構(gòu)的大部分。該技術(shù)旨在通過應(yīng)用矩陣或張量分解并將它們制成更小的矩陣來識別冗余參數(shù)。這種技術(shù)應(yīng)用于密集的DNN(深度神經(jīng)網(wǎng)絡(luò))時,降低了CNN(卷積神經(jīng)網(wǎng)絡(luò))層的存儲要求和分解,并縮短了推理時間。具有二維且秩為 r 的權(quán)重矩陣 A 可以分解為更小的矩陣,如下所示。

pYYBAGRUYdWAebceAABJ-BdhGHg656.png

低矩陣分解

模型的準(zhǔn)確性和性能在很大程度上取決于適當(dāng)?shù)姆纸夂椭冗x擇。低秩分解過程中的主要挑戰(zhàn)是更難實(shí)現(xiàn),并且是計(jì)算密集型的??傮w而言,與全秩矩陣表示相比,密集層矩陣的因式分解可產(chǎn)生更小的模型和更快的性能。

由于邊緣人工智能,模型壓縮策略變得非常重要。這些方法是相互補(bǔ)充的,可以在整個 AI 管道的各個階段使用。像TensorFlow和Pytorch這樣的流行框架現(xiàn)在包括修剪和量化等技術(shù)。最終,該領(lǐng)域使用的技術(shù)數(shù)量將會增加。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • RAM
    RAM
    +關(guān)注

    關(guān)注

    8

    文章

    1397

    瀏覽量

    119664
  • 人工智能
    +關(guān)注

    關(guān)注

    1813

    文章

    49596

    瀏覽量

    260055
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5588

    瀏覽量

    123812
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    騰訊 AI Lab 開源世界首款自動化模型壓縮框架PocketFlow

    移動端AI開發(fā)者的自動模型壓縮框架,集成了當(dāng)前主流的模型壓縮與訓(xùn)練算法,結(jié)合自研超參數(shù)優(yōu)化組件實(shí)現(xiàn)了全程自動化托管式的
    的頭像 發(fā)表于 09-18 11:51 ?4791次閱讀

    模型壓縮技術(shù),加速AI模型在終端側(cè)的應(yīng)用

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)當(dāng)前,全球眾多科技企業(yè)都在積極研究AI模型,然而因?yàn)閰?shù)規(guī)模太大,要想實(shí)現(xiàn)AI模型在邊/端側(cè)部署,需要用到模型
    的頭像 發(fā)表于 04-24 01:26 ?3444次閱讀

    NanoEdge AI技術(shù)原理、應(yīng)用場景及優(yōu)勢

    能耗并提高數(shù)據(jù)安全性。本文將對 NanoEdge AI技術(shù)原理、應(yīng)用場景以及優(yōu)勢進(jìn)行綜述。 1、技術(shù)原理 NanoEdge AI 的核心技術(shù)
    發(fā)表于 03-12 08:09

    cubemx ai導(dǎo)入onnx模型壓縮失敗了怎么解決?

    cubemx ai導(dǎo)入onnx模型壓縮失敗。請問我怎么解決
    發(fā)表于 03-19 07:58

    AI模型部署邊緣設(shè)備的奇妙之旅:如何實(shí)現(xiàn)手寫數(shù)字識別

    系統(tǒng)的智能化水平,還極大地拓展了其應(yīng)用范圍, 使得嵌入式系統(tǒng)在智能家居、智能交通、智能醫(yī)療等領(lǐng)域有了更深層次的運(yùn)用。AI技術(shù)的嵌入,已經(jīng)成為未來嵌入式系統(tǒng)發(fā)展 的一個重要趨勢。踏入邊緣端部署的第一步
    發(fā)表于 12-06 17:20

    AI賦能邊緣網(wǎng)關(guān):開啟智能時代的新藍(lán)海

    在數(shù)字化轉(zhuǎn)型的浪潮中,AI邊緣計(jì)算的結(jié)合正掀起一場深刻的產(chǎn)業(yè)變革。邊緣網(wǎng)關(guān)作為連接物理世界與數(shù)字世界的橋梁,在AI技術(shù)的加持下,正從簡單的
    發(fā)表于 02-15 11:41

    Deepseek海思SD3403邊緣計(jì)算AI產(chǎn)品系統(tǒng)

    海思SD3403邊緣計(jì)算AI框架,提供了一套開放式AI訓(xùn)練產(chǎn)品工具包,解決客戶低成本AI系統(tǒng),針對差異化AI 應(yīng)用場景,自己采集樣本數(shù)據(jù),進(jìn)
    發(fā)表于 04-28 11:05

    EdgeBoard FZ5 邊緣AI計(jì)算盒及計(jì)算卡

    科技攜手百度,推出系列高性能及高性價比EdgeBoard 邊緣AI計(jì)算卡/計(jì)算盒,助力AI項(xiàng)目落地??伸`活適配海量的且不斷迭代的AI模型,并
    發(fā)表于 08-31 14:12

    【HarmonyOS HiSpark AI Camera】邊緣計(jì)算安全監(jiān)控系統(tǒng)

    項(xiàng)目名稱:邊緣計(jì)算安全監(jiān)控系統(tǒng)試用計(jì)劃:理由:本人熱愛嵌入式技術(shù),希望通過嵌入式智能技術(shù)改善人們生活。希望基于鴻蒙系和linux統(tǒng)構(gòu)建一個邊緣計(jì)算的智能監(jiān)控平臺,來保證工廠運(yùn)行的安全。
    發(fā)表于 09-25 10:11

    網(wǎng)絡(luò)邊緣實(shí)施AI的原因

    AI推向邊緣的影響通過在邊緣運(yùn)行ML模型可以使哪些具體的AI項(xiàng)目更容易運(yùn)行?
    發(fā)表于 02-23 06:21

    嵌入式邊緣AI應(yīng)用開發(fā)指南

    如果在沒有嵌入式處理器供應(yīng)商提供的合適工具和軟件的支持下,既想設(shè)計(jì)高能效的邊緣人工智能(AI)系統(tǒng),同時又要加快產(chǎn)品上市時間,這項(xiàng)工作難免會冗長乏味。面臨的一系列挑戰(zhàn)包括選擇恰當(dāng)?shù)纳疃葘W(xué)習(xí)模型
    發(fā)表于 11-03 06:53

    壓縮模型會加速推理嗎?

    你好我使用 STM32CUBE-AI v5.1.2 ApplicationTemplate 將簡單的 CNN 導(dǎo)入到 STM32L462RCT我發(fā)現(xiàn)壓縮模型對推理時間沒有影響。aiRun 程序在 8
    發(fā)表于 01-29 06:24

    ST MCU邊緣AI開發(fā)者云 - STM32Cube.AI

    意法半導(dǎo)體(ST)為嵌入式AI開發(fā)人員和數(shù)據(jù)科學(xué)家擴(kuò)展了面向嵌入式AI開發(fā)人員和數(shù)據(jù)科學(xué)家的解決方案,推出了一套業(yè)界首創(chuàng)的全新工具和服務(wù),通過輔助硬件和軟件決策,將邊緣AI
    發(fā)表于 02-02 09:52

    邊緣AI模型壓縮技術(shù)

    在某個時間點(diǎn),人們認(rèn)為大型和復(fù)雜的模型表現(xiàn)更好,但現(xiàn)在它幾乎是一個神話。隨著邊緣AI的發(fā)展,越來越多的技術(shù)將大型復(fù)雜模型轉(zhuǎn)換為可以在
    的頭像 發(fā)表于 10-19 14:22 ?1837次閱讀
    <b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>的<b class='flag-5'>模型</b><b class='flag-5'>壓縮</b><b class='flag-5'>技術(shù)</b>

    如何利用NPU與模型壓縮技術(shù)優(yōu)化邊緣AI

    ,AI 模型體積龐大,部署在 NPU上常常面臨困難,這凸顯了模型壓縮技術(shù)的重要性。要實(shí)現(xiàn)高效的實(shí)時邊緣
    的頭像 發(fā)表于 11-07 15:26 ?303次閱讀
    如何利用NPU與<b class='flag-5'>模型</b><b class='flag-5'>壓縮</b><b class='flag-5'>技術(shù)</b>優(yōu)化<b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>