亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Llama 3 王者歸來,Airbox 率先支持部署

算能開發(fā)者社區(qū) ? 2024-04-22 08:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前天,智算領(lǐng)域迎來一則令人振奮的消息:Meta 正式發(fā)布了備受期待的開源大模型——Llama 3。

ed9ee800-003f-11ef-9118-92fbcf53809c.png

Llama 3 的卓越性能

Meta 表示,Llama 3 在多個關(guān)鍵基準(zhǔn)測試中展現(xiàn)出卓越性能,超越了業(yè)內(nèi)先進(jìn)的同類模型。無論是在代碼生成、復(fù)雜推理,還是在遵循指令和可視化想法方面,Llama 3 都實(shí)現(xiàn)了全面領(lǐng)先。該模型在以下五個基準(zhǔn)測試中均表現(xiàn)出色:

MMLU(學(xué)科知識理解)

GPQA(一般問題解答)

HumanEval(代碼能力)

GSM-8K(數(shù)學(xué)能力)

MATH(高難度數(shù)學(xué)問題)

無論是 8B 規(guī)格的 Llama3 還是 70B 規(guī)格,它們都較市場上其他優(yōu)秀大模型表現(xiàn)更佳。

edb0b3c8-003f-11ef-9118-92fbcf53809c.png

縱向?qū)Ρ蕊@示,Llama 3 的性能大幅領(lǐng)先于前代產(chǎn)品 Llama 2,尤其是在 8B 規(guī)格上,遠(yuǎn)超過 Llama 2 時代的 13B 和 70B 規(guī)格;新的 70B 規(guī)格更是展現(xiàn)出與 GPT-4 早期版本相媲美的能力。

指令調(diào)優(yōu)模型

Benchmark

Llama 3

8B

Llama 2

7B

Llama 2

13B

Llama 3

70B

Llama 2

70B

MMLU

(5-shot)

68.434.147.88252.9

GPQA

(0-shot)

34.221.722.339.521

HumanEval

(0-shot)

62.27.91481.725.6

GSM-8K

(8-shot, CoT)

79.625.777.49357.5

MATH

(4-shot, CoT)

303.86.750.411.6

瑞莎 Airbox 快速支持 Llama 3

面對 Llama 3 如此激動人心的性能,Airbox 團(tuán)隊(duì)積極響應(yīng),快速將 Llama 8B 移植并成功在 Airbox 上運(yùn)行。以下視頻展示了 Llama 8B 在 Airbox 上的運(yùn)行情況:


(注:Llama 3 8B 知識更新到 2023 年 3 月)

可以看到,Llama 3 8B 在 Airbox 上的運(yùn)行表現(xiàn)極為流暢,達(dá)到了 9.6 token/s 的處理速度,已充分展現(xiàn)出其實(shí)用價值。與其他應(yīng)用結(jié)合使用時,更開辟了廣闊的應(yīng)用前景和創(chuàng)新可能性。Airbox 團(tuán)隊(duì)后續(xù)會對 Llama 3 8B 做更多測試并公布結(jié)果。

關(guān)于瑞莎 Fogwise Airbox

瑞莎智算盒子 Fogwise Airbox 是一款面向側(cè)端生成式智算的邊緣計(jì)算微型服務(wù)器,基于算能最新專為生成式智算打造的 SG2300X 處理器設(shè)計(jì),具有開箱即用,本地離線部署,注重?cái)?shù)據(jù)隱私,多精度支持,高能效比,高性價比,系統(tǒng)/文檔/工具鏈開源等特點(diǎn),是當(dāng)前為數(shù)不多甚至是唯一的低成本在邊緣側(cè)部署生成式智算的方案。

瑞莎 Fogwise Airbox 現(xiàn)已準(zhǔn)備就緒,即將在近期發(fā)售,敬請期待。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 基準(zhǔn)測試
    +關(guān)注

    關(guān)注

    0

    文章

    21

    瀏覽量

    7772
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    3930

    瀏覽量

    45437
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3396

    瀏覽量

    4874
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    【VisionFive 2單板計(jì)算機(jī)試用體驗(yàn)】3、開源大語言模型部署

    1、ollama平臺搭建 ollama可以快速地部署開源大模型,網(wǎng)址為https://ollama.com, 試用該平臺,可以在多平臺上部署 Deepseek-R1, Qwen3, Llama
    發(fā)表于 07-19 15:45

    Say Hi to ERNIE!Imagination GPU率先完成文心大模型的端側(cè)部署

    ImaginationTechnologies宣布率先完成百度文心大模型(ERNIE4.5開源版)在其GPU硬件上的端側(cè)部署。適配完成后,開發(fā)者可在搭載ImaginationGPU的設(shè)備上實(shí)現(xiàn)高效
    的頭像 發(fā)表于 07-01 08:17 ?684次閱讀
    Say Hi to ERNIE!Imagination GPU<b class='flag-5'>率先</b>完成文心大模型的端側(cè)<b class='flag-5'>部署</b>

    使用 NPU 插件對量化的 Llama 3.1 8b 模型進(jìn)行推理時出現(xiàn)“從 __Int64 轉(zhuǎn)換為無符號 int 的錯誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發(fā)表于 06-25 07:20

    MediaTek天璣9400率先完成阿里Qwen3模型部署

    通義大模型團(tuán)隊(duì)在天璣 9400 旗艦移動平臺上率先完成 Qwen3(千問 3)的端側(cè)部署。未來,搭載天璣 9400 移動平臺的設(shè)備可充分發(fā)揮端側(cè) AI 性能潛力,運(yùn)行千問
    的頭像 發(fā)表于 05-08 10:11 ?823次閱讀

    摩爾線程GPU率先支持Qwen3全系列模型

    近日,阿里云正式發(fā)布Qwen3系列的8款開源混合推理模型。摩爾線程團(tuán)隊(duì)在模型發(fā)布當(dāng)天,率先完成了Qwen3全系列模型在全功能GPU上的高效支持。這一成果充分展現(xiàn)了MUSA架構(gòu)及全功能G
    的頭像 發(fā)表于 05-07 15:24 ?790次閱讀

    壁仞科技完成阿里巴巴通義千問Qwen3全系列模型支持

    4月29日,阿里巴巴通義千問發(fā)布并開源8款新版Qwen3系列“混合推理模型”(簡稱“Qwen3”)。Qwen3發(fā)布后數(shù)小時內(nèi),壁仞科技完成全系列支持,并
    的頭像 發(fā)表于 04-30 15:19 ?1277次閱讀

    《AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》閱讀心得3——RAG架構(gòu)與部署本地知識庫

    實(shí)踐RAG技術(shù)的開發(fā)者來說是非常有價值的參考。 本人由于時間關(guān)系暫時騰不出太多時間投入實(shí)際部署本地知識庫,并且考慮到這本書成書是在去年,書中提到的例子是利用Llama3,而當(dāng)下可以考慮
    發(fā)表于 03-07 19:49

    yolov5轉(zhuǎn)onnx在cubeAI進(jìn)行部署部署失敗的原因?

    第一個我是轉(zhuǎn)onnx時 想把權(quán)重文件變小點(diǎn) 就用了半精度 --half,則說17版本不支持半精度 后面則是沒有縮小的單精度 但是顯示哪里溢出了···· 也不說是哪里、、。。。 到底能不能部署yolov5這種東西?。?? 也沒看見幾個部署
    發(fā)表于 03-07 11:38

    AI SoC # 愛芯元智AX650N詳細(xì)介紹:原生支持Transformer架構(gòu)模型 適用部署DeepSeek R1

    和 18TOPs@INT8 ,原生支持Transformer架構(gòu)模型,適用于CNN、LLM(如DeepSeek、Llama3、Qwen2.5)及多模態(tài)大模型(VLM)部署。 部署De
    的頭像 發(fā)表于 03-04 11:15 ?6726次閱讀
    AI SoC # 愛芯元智AX650N詳細(xì)介紹:原生<b class='flag-5'>支持</b>Transformer架構(gòu)模型 適用<b class='flag-5'>部署</b>DeepSeek R1

    紹興數(shù)據(jù)局率先實(shí)現(xiàn)政務(wù)環(huán)境下的DeepSeek模型部署

    2月14日,紹興數(shù)據(jù)局率先基于華為昇騰服務(wù)器,成功部署上線DeepSeek全尺寸大模型,在全省率先實(shí)現(xiàn)政務(wù)環(huán)境下的DeepSeek模型部署。 春節(jié)期間,DeepSeek憑借卓越效能和精
    的頭像 發(fā)表于 02-20 11:22 ?1684次閱讀
    紹興數(shù)據(jù)局<b class='flag-5'>率先</b>實(shí)現(xiàn)政務(wù)環(huán)境下的DeepSeek模型<b class='flag-5'>部署</b>

    K1 AI CPU基于llama.cpp與Ollama的大模型部署實(shí)踐

    AICPU芯片,已于今年4月份發(fā)布。下面我們以K1為例,結(jié)合llama.cpp來展示AICPU在大模型領(lǐng)域的優(yōu)勢。
    的頭像 發(fā)表于 02-18 14:23 ?1454次閱讀
    K1 AI CPU基于<b class='flag-5'>llama</b>.cpp與Ollama的大模型<b class='flag-5'>部署</b>實(shí)踐

    添越智創(chuàng)基于 RK3588 開發(fā)板部署測試 DeepSeek 模型全攻略

    方法的優(yōu)缺點(diǎn)與操作要點(diǎn)。 01-使用Ollama工具部署-便捷但有短板 Ollama 是一個開源的大模型服務(wù)工具,可以支持最新的deepseek模型,以及Llama 3,Phi
    發(fā)表于 02-14 17:42

    烽火通信推動DeepSeek本地化部署,金融行業(yè)率先示范

    近日,烽火通信攜手長江計(jì)算、昇騰及華為云團(tuán)隊(duì),在金融領(lǐng)域取得了重要突破。他們成功助力某國有大型銀行,率先完成了DeepSeek-V3大模型的本地化推理服務(wù)部署。 此次部署采用了長江計(jì)算
    的頭像 發(fā)表于 02-10 15:03 ?1694次閱讀

    用Ollama輕松搞定Llama 3.2 Vision模型本地部署

    Ollama 是一個開源的大語言模型服務(wù)工具,它的核心目的是簡化大語言模型(LLMs)的本地部署和運(yùn)行過程,請參考《Gemma 2+Ollama在算力魔方上幫你在LeetCode解題》,一條命令完成
    的頭像 發(fā)表于 11-23 17:22 ?4365次閱讀
    用Ollama輕松搞定<b class='flag-5'>Llama</b> 3.2 Vision模型本地<b class='flag-5'>部署</b>

    使用NVIDIA TensorRT提升Llama 3.2性能

    Llama 3.2 模型集擴(kuò)展了 Meta Llama 開源模型集的模型陣容,包含視覺語言模型(VLM)、小語言模型(SLM)和支持視覺的更新版 Llama Guard 模型。與 NV
    的頭像 發(fā)表于 11-20 09:59 ?1190次閱讀