亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Google AI Edge Torch的特性詳解

谷歌開發(fā)者 ? 來源:谷歌開發(fā)者 ? 2024-11-06 10:48 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者 / 主任工程師 Cormac Brick,軟件工程師 Advait Jain,軟件工程師 Haoliang Zhang

我們很高興地發(fā)布 Google AI Edge Torch,可將 PyTorch 編寫的模型直接轉(zhuǎn)換成 TFLite 格式 (.tflite),且有著優(yōu)異的模型覆蓋率和 CPU 性能。TFLite 已經(jīng)支持 Jax、Keras 和 TensorFlow 編寫的模型,現(xiàn)在我們加入了對 PyTorch 的支持,進一步豐富了框架選擇。

這一新產(chǎn)品現(xiàn)已作為 Google AI Edge 的一部分提供。Google AI Edge 是一套易于使用的工具,包含可直接使用的機器學習 (ML) 任務、構(gòu)建機器學習流水線的框架,以及運行流行的大語言模型 (LLM) 和自定義模型的能力——所有這些都可在設備上運行。本文是 Google AI Edge 博客連載中的第一篇,用于幫助開發(fā)者們構(gòu)建 AI 功能,并輕松地將其部署至多個平臺。

今天發(fā)布的 AI Edge Torch Beta 版本包含以下特性:

直接集成 PyTorch

出色的 CPU 性能和初步 GPU 支持

在 torchvision、timm、torchaudio 和 HuggingFace 里的 70 多個模型上得到驗證

支持超過 70% 的 PyTorch core_aten 算子

兼容現(xiàn)有的 TFLite 運行時,無需更改部署代碼

支持在工作流的多個階段進行模型探索器 (Model Explorer) 可視化

以 PyTorch 為中心的簡潔體驗

Google AI Edge Torch 從一開始就致力于為 PyTorch 社區(qū)提供卓越的開發(fā)體驗,API 使用起來感覺非常原生,并提供簡便的模型轉(zhuǎn)換路徑。

import torchvision
import ai_edge_torch


# Initialize model
resnet18 = torchvision.models.resnet18().eval()


# Convert
sample_input = (torch.randn(4, 3, 224, 224),)
edge_model = ai_edge_torch.convert(resnet18, sample_input)


# Inference in Python
output = edge_model(*sample_input)


# Export to a TfLite model for on-device deployment
edge_model.export('resnet.tflite'))

在底層,ai_edge_torch.convert()使用 torch.export 集成了 TorchDynamo——在 PyTorch 2.x 中,這個方法用于將 PyTorch 模型導出為標準化的模型形式,從而在不同環(huán)境中運行。我們目前的實現(xiàn)支持超過 70% 的 core_aten 算子,這個比例會在構(gòu)建 ai_edge_torch 1.0 版本的過程中大幅增加。我們還提供了 PT2E 量化的示例,這是 PyTorch2 原生的量化方法,以簡化量化工作的流程。我們很期待聽到來自 PyTorch 社區(qū)的反饋,以進一步改善開發(fā)者體驗,從而幫助大家更好地把用 PyTorch 打造的新穎體驗部署至更多樣的設備中。

模型覆蓋和性能

在此版本發(fā)布之前,許多開發(fā)者使用社區(qū)提供的轉(zhuǎn)換方法,如 ONNX2TF,在 TFLite 中運行 PyTorch 模型。我們開發(fā) AI Edge Torch 的目標是減少開發(fā)過程中的阻力,提供出色的模型覆蓋率,并繼續(xù)完成我們的使命: 在 Android 設備上提供最佳的性能。

在覆蓋率方面,我們的測試表明,與現(xiàn)有工作流程 (尤其是 ONNX2TF) 相比,AI Edge Torch 在給定的模型集合上的覆蓋率有顯著的提高。

47a0fd8e-90a0-11ef-a511-92fbcf53809c.png

在性能方面,我們的測試顯示 AI Edge Torch 與 ONNX2TF 的基準性能表現(xiàn)相當,比 ONNX 運行時相比則有著更好的性能。

47c39178-90a0-11ef-a511-92fbcf53809c.png

下圖顯示了在 ONNX 覆蓋的模型子集上的每個模型的詳細性能:

47e68552-90a0-11ef-a511-92fbcf53809c.png

△ 相對于 ONNX 的每個網(wǎng)絡的推理延遲。以 Pixel 8 為測試設備,使用 fp32 精度。XNNPACK 固定為 4 個線程以確保復現(xiàn)性,經(jīng)過 20 次迭代預熱后取 100 次運行的均值

早期體驗用戶和合作伙伴

在過去的幾個月中,我們與參與早期體驗的合作伙伴們密切合作,包括 Shopify、Adobe 和 Niantic,以改進我們的 PyTorch 支持。ai_edge_torch 已經(jīng)被 Shopify 團隊用來在設備上去除產(chǎn)品圖像的背景,這個功能會出現(xiàn)在不久后發(fā)布的 Shopify 應用中。

芯片合作伙伴和代理

我們還和 Arm、Google Tensor G3、聯(lián)發(fā)科技、高通三星 System LSI 這些合作伙伴們一起,提供跨 CPU、GPU 和加速器的硬件支持。我們通過這些合作提高了產(chǎn)品的性能和覆蓋率,并在加速器代理上驗證了由 PyTorch 生成的 TFLite 文件。

我們也很榮幸地和高通共同宣布新的 TensorFlow Lite 代理,現(xiàn)已開放供所有開發(fā)者使用。TFLite 代理是附加的軟件模塊,可提升在 GPU 和硬件加速器上的執(zhí)行速度。這個新的 QNN 代理支持我們在 PyTorch Beta 測試集中用到的大多數(shù)模型,并提供對高通芯片的廣泛支持。通過使用高通的 DSP 和神經(jīng)處理單元,相比僅使用 CPU 和 GPU 的場景,能明顯地提升運行速度 (相較 CPU 平均提升 20 倍,GPU 平均提升 5 倍)。為了方便測試,高通最近還發(fā)布了新的 AI Hub。高通 AI Hub 是一個云服務,可以讓開發(fā)者在一系列 Android 設備上對 TFLite 模型進行測試,并在使用 QNN 代理的設備上提供性能增益的可見性。

下一步

在接下來的幾個月中,我們將繼續(xù)在開放的環(huán)境中對產(chǎn)品進行迭代,朝著 1.0 版本努力,包括提升模型覆蓋率、改進 GPU 支持,提供新的量化模式。在本系列的第二篇文章中,我們將更深入地介紹 AI Edge Torch 生成式 API,這個 API 能讓開發(fā)者們在邊緣設備中運行自定義生成式 AI 模型,并且提供優(yōu)秀的性能表現(xiàn)。

我們要感謝所有早期體驗用戶,正是他們提供的寶貴反饋讓我們得以及早發(fā)現(xiàn)錯誤,并確保開發(fā)者們獲得順暢的體驗。我們還要感謝硬件合作伙伴以及 XNNPACK 生態(tài)系統(tǒng)的貢獻者,是他們的幫助讓我們在如此多樣的設備上都能獲得優(yōu)異的性能表現(xiàn)。同時,我們也要感謝廣大的 PyTorch 社區(qū)在這一路提供的指導和支持。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • Google
    +關(guān)注

    關(guān)注

    5

    文章

    1799

    瀏覽量

    60143
  • 移動設備
    +關(guān)注

    關(guān)注

    0

    文章

    521

    瀏覽量

    55723
  • AI
    AI
    +關(guān)注

    關(guān)注

    89

    文章

    37534

    瀏覽量

    293259
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3627

    瀏覽量

    51613
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8536

    瀏覽量

    136111

原文標題:AI Edge Torch: 在移動設備上實現(xiàn)高性能的 PyTorch 模型推理

文章出處:【微信號:Google_Developers,微信公眾號:谷歌開發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    Google掌舵人:打電話AI是一次非凡突破

    通過圖靈測試!Google掌舵人說“打電話AI”是一次非凡突破
    發(fā)表于 05-12 13:45

    Mbed Edge具有什么功能?

    Mbed Edge具有什么功能?Mbed Edge為Mbed Cloud實現(xiàn)的新特性是什么?
    發(fā)表于 05-18 07:14

    如何使用torch 2.0或更高版本創(chuàng)建圖像?

    我需要使用 torch 2.0 或更高版本創(chuàng)建圖像,使用nxp-github中的演示我可以使用 Yocto Project BSP 6.1.1_1.0.0 Release 使用 torch
    發(fā)表于 05-16 06:26

    EDGE技術(shù)詳解

    EDGE技術(shù)詳解EDGE簡述  EDGE是英文Enhanced Data Rate for GSM Evolution 縮寫即增強型數(shù)據(jù)速率GSM演進技術(shù)
    發(fā)表于 04-10 14:53 ?66次下載

    Google發(fā)布超低功耗的ASIC芯片Edge TPU處理器

    Google于美國當?shù)貢r間周三在Next云端大會,重磅發(fā)布了Edge TPU處理器。
    的頭像 發(fā)表于 07-30 14:11 ?9834次閱讀

    一文看懂谷歌的AI芯片布局

    谷歌AI芯片 2018年7月Google在其云端服務年會Google Cloud Next上正式發(fā)表其邊緣(Edge)技術(shù),與另兩家國際公有云服務大廠Amazon/AWS、Micros
    發(fā)表于 11-29 14:08 ?955次閱讀

    Google之后 微軟宣布暫停Chromium Edge版本更新

    就在幾天前,IT之家報道了Google決定暫停Chrome版本更新,以確保Web開發(fā)人員不會遇到問題。微軟現(xiàn)在已決定跟隨Google的腳步,今天微軟也宣布暫停Chromium 版Edge瀏覽器更新。
    的頭像 發(fā)表于 03-21 09:43 ?1925次閱讀

    圖文詳解:信號的時域和空域特性

    圖文詳解:信號的時域和空域特性
    發(fā)表于 07-15 10:25 ?2次下載
    圖文<b class='flag-5'>詳解</b>:信號的時域和空域<b class='flag-5'>特性</b>

    Edge AI在深度學習應用中超越云計算

      因此,處理的劃分帶來了兩種技術(shù)的最佳效果。因此,它可能是 AI 應用程序的更好選擇。但是,大多數(shù)應用程序都需要更快的實時更新訓練,因此 Edge AI 比 Cloud AI 技術(shù)壽
    的頭像 發(fā)表于 07-10 11:07 ?2564次閱讀

    借助 Edge Impulse 實現(xiàn) AI 開發(fā)的民主化

    借助 Edge Impulse 實現(xiàn) AI 開發(fā)的民主化
    的頭像 發(fā)表于 12-30 09:40 ?2361次閱讀

    PyTorch中 torch.nn與torch.nn.functional的區(qū)別

    torch.nn pytorch中文文檔鏈接: torch.nn 在 __init__() 函數(shù)里定義,定義的是一個類: torch.nn.functional pytorch中文文檔鏈接
    的頭像 發(fā)表于 01-11 16:47 ?1815次閱讀

    采用Versal AI Edge系列的邊緣ACAP

    電子發(fā)燒友網(wǎng)站提供《采用Versal AI Edge系列的邊緣ACAP.pdf》資料免費下載
    發(fā)表于 09-13 17:08 ?0次下載
    采用Versal <b class='flag-5'>AI</b> <b class='flag-5'>Edge</b>系列的邊緣ACAP

    Edge AI工控機的定義、挑選考量與常見應用

    何謂Edge AI? 在傳統(tǒng)的AI部署方式中,邊緣端的數(shù)據(jù)會集中到一臺具備強大運算能力的服務器上,由這臺服務器進行相關(guān)的模型訓練和預測。為了讓來自不同地點的使用者能夠存取并使用這些AI
    的頭像 發(fā)表于 08-14 10:51 ?1198次閱讀

    在設備上利用AI Edge Torch生成式API部署自定義大語言模型

    ,從而無縫地將新的設備端生成式 AI 模型部署到邊緣設備上。本文是 Google AI Edge 博客連載的第二篇。上一篇文章為大家介紹了 Goog
    的頭像 發(fā)表于 11-14 10:23 ?1732次閱讀
    在設備上利用<b class='flag-5'>AI</b> <b class='flag-5'>Edge</b> <b class='flag-5'>Torch</b>生成式API部署自定義大語言模型

    面向AI與機器學習應用的開發(fā)平臺 AMD/Xilinx Versal? AI Edge VEK280

    AMD/Xilinx Versal? AI Edge VEK280評估套件是一款面向AI與機器學習應用的開發(fā)平臺,專為邊緣計算場景優(yōu)化設計。以下從核心配置、技術(shù)特性、應用場景及開發(fā)支持
    的頭像 發(fā)表于 04-11 18:33 ?1903次閱讀
    面向<b class='flag-5'>AI</b>與機器學習應用的開發(fā)平臺 AMD/Xilinx Versal? <b class='flag-5'>AI</b> <b class='flag-5'>Edge</b> VEK280