亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

伯克利AI實驗室開源圖像編輯模型InstructPix2Pix,簡化生成圖像編輯并提供一致結果

jf_WZTOguxH ? 來源:AI前線 ? 2023-08-28 15:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來自伯克利人工智能研究(BAIR)實驗室的研究人員開源深度學習模型 InstructPix2Pix,它可以遵循人類指令來編輯圖像。InstructPix2Pix 在合成數(shù)據(jù)上進行訓練,表現(xiàn)優(yōu)于基線 AI 圖像編輯模型。

BAIR 團隊在最近舉行的 2023 年 IEEE/CVF 計算機視覺和模式識別(CVPR)大會上展示了他們的工作成果。他們先是生成了一個合成訓練數(shù)據(jù)集,其中的訓練樣本是成對的圖像以及用于將第一幅圖像轉換為第二幅圖像的編輯指令。該數(shù)據(jù)集用于訓練圖像生成擴散模型,該模型可以接受基于文本的指令來編輯圖像。例如,給定一張騎馬的人的圖片和提示詞“讓她變成騎龍”,它會輸出原始圖片,但原來的馬被替換了龍。BAIR 的研究人員的表示:

盡管模型完全是在合成樣本上進行訓練的,但它實現(xiàn)了對任意真實圖像和人類自然語言指令的零樣本泛化。我們的模型能夠進行直觀的圖像編輯,可以遵循人類指令執(zhí)行多種編輯:替換對象、改變圖像風格、修改設置、藝術媒介等。

之前的 AI 圖像編輯能力通常是進行風格轉換,流行的文本到圖像生成模型(如 DALL-E 和 Stable Diffusion)也支持圖像到圖像風格轉換操作。然而,使用這些模型進行有針對性的編輯仍然具有挑戰(zhàn)性。最近,InfoQ 報道了微軟的 Visual ChatGPT,它可以調(diào)用外部工具來編輯圖像,前提是提供編輯操作的文本描述。

為了訓練 InstructPix2Pix,BAIR 首先創(chuàng)建了一個合成數(shù)據(jù)集。為此,團隊在一個由輸入文字說明、編輯指令和期望輸出文字說明組成的人類文本樣本的小數(shù)據(jù)集上對 GPT-3 進行了微調(diào)。然后,這個微調(diào)模型被給予一個大型的輸入圖像文字說明數(shù)據(jù)集,從中生成了超過 450k 次編輯和輸出文字說明。然后,團隊將輸入和輸出文字說明饋送到預訓練的 Prompt-to-Prompt 模型中,該模型根據(jù)文字說明生成成對的相似圖像。

d051acec-4564-11ee-a2ef-92fbcf53809c.jpg

InstructPix2Pix 的架構,圖片來源:https://arxiv.org/abs/2211.09800

研究人員鑒于這個數(shù)據(jù)集訓練了基于 Stable Diffusion 的 InstructPix2Pix。為了評估其性能,團隊將其輸出與基線模型 SDEdit 進行了比較。他們使用兩個指標之間的權衡:一致性(即輸入圖像和編輯后圖像的 CLIP 嵌入之間的余弦相似度)和方向相似性(即編輯后文字說明中的變化與編輯后圖像的變化在多大程度上保持一致)。在實驗中,對于給定的方向相似性值,InstructPix2Pix 產(chǎn)生的圖像比 SDEdit 具有更高的一致性。

人工智能研究員吳恩達在他的深度學習新聞郵件組“The Batch”中評價了 InstructPix2Pix:

這項工作簡化了生成和人造圖像的編輯操作,并提供了更一致的結果。巧妙地利用現(xiàn)有模型,模型作者能夠使用相對較少的人類標記樣本在新任務上訓練他們的模型。

InstructPix2Pix 的代碼可在 GitHub 上獲取,模型和基于 Web 的演示可在 Huggingface 上訪問。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • Web
    Web
    +關注

    關注

    2

    文章

    1298

    瀏覽量

    73396
  • 人工智能
    +關注

    關注

    1813

    文章

    49597

    瀏覽量

    260096
  • 模型
    +關注

    關注

    1

    文章

    3627

    瀏覽量

    51618
  • 數(shù)據(jù)集

    關注

    4

    文章

    1229

    瀏覽量

    26001

原文標題:伯克利 AI 實驗室開源圖像編輯模型 InstructPix2Pix,簡化生成圖像編輯并提供一致結果

文章出處:【微信號:AI前線,微信公眾號:AI前線】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    Solidigm 成立AI中央實驗室,配備高性能、大密度存儲測試集群

    實驗室匯聚AI與存儲專業(yè)技術,為Solidigm合作者提供研究和優(yōu)化存儲對AI工作負載影響的平臺。 2025年10月9日,北京 ——企業(yè)數(shù)據(jù)存儲領域領導者 Solidigm正式揭幕其
    的頭像 發(fā)表于 10-10 17:03 ?461次閱讀

    代超大模型訓練引擎XTuner V1開源

    9月8日,上海人工智能實驗室(上海AI實驗室)開源書生大模型代訓練引擎XTuner V1。
    的頭像 發(fā)表于 09-10 10:55 ?785次閱讀

    【Sipeed MaixCAM Pro開發(fā)板試用體驗】基于MaixCAM-Pro的AI生成圖像鑒別系統(tǒng)

    能夠有效捕捉AI生成圖像與真實手繪掃描圖像在紋理、筆觸、光影、全局一致性等方面的細微差異。 邊緣端部署:將
    發(fā)表于 08-21 13:59

    NVIDIA RTX AI加速FLUX.1 Kontext系列圖像模型

    Black Forest Labs,作為全球頂尖 AI 研究實驗室,為圖像生成領域帶來顛覆性變革。
    的頭像 發(fā)表于 08-05 16:27 ?930次閱讀
    NVIDIA RTX <b class='flag-5'>AI</b>加速FLUX.1 Kontext系列<b class='flag-5'>圖像</b><b class='flag-5'>模型</b>

    利用NVIDIA 3D引導生成AI Blueprint控制圖像生成

    AI 賦能的圖像生成技術突飛猛進,從早期模型生成手指過多的人類圖像,到現(xiàn)在能創(chuàng)造出令人驚嘆的逼
    的頭像 發(fā)表于 06-05 09:24 ?673次閱讀

    Gemini API集成Google圖像生成模型Imagen 3

    開發(fā)者現(xiàn)在可以通過 Gemini API 訪問 Google 最先進的圖像生成模型 Imagen 3。該模型最初僅對付費用戶開放,不久后也將面向免費用戶推出。
    的頭像 發(fā)表于 05-14 16:53 ?815次閱讀

    實驗室安全管理成焦點,漢威科技賦能實驗室安全升級

    實驗室是國家科技創(chuàng)新體系的重要組成部分,是國家組織高水平基礎研究和應用基礎研究、聚集和培養(yǎng)優(yōu)秀科學家、開展學術交流的重要基地。近年來,各高校、研究院所、科創(chuàng)園區(qū)、高新產(chǎn)業(yè)園區(qū)相關企業(yè)的實驗室呈現(xiàn)爆發(fā)
    的頭像 發(fā)表于 04-10 10:41 ?641次閱讀
    <b class='flag-5'>實驗室</b>安全管理成焦點,漢威科技賦能<b class='flag-5'>實驗室</b>安全升級

    簡化樹莓派文件操作:Picockpit 編輯器應用上手體驗

    我們激動地宣布推出全新的文件編輯器應用,讓您能夠在RaspberryPi上遠程創(chuàng)建和編輯文件和目錄!不僅如此,通過我們的文件編輯器應用,您還能獲得我們的AI系統(tǒng)——RaspiGPT的協(xié)
    的頭像 發(fā)表于 03-25 09:26 ?458次閱讀
    <b class='flag-5'>簡化</b>樹莓派文件操作:Picockpit <b class='flag-5'>編輯</b>器應用上手體驗

    華為智算實驗室解決方案助力科研創(chuàng)新高質量發(fā)展

    AI浪潮席卷科研領域,以DeepSeek為代表的生成AI技術正掀起新輪科研革命。華為基于其在AI和高性能計算等領域的優(yōu)勢,推出智算
    的頭像 發(fā)表于 02-25 16:22 ?1178次閱讀

    阿里巴巴Qwen大模型助力開發(fā)低成本DeepSeek替代方案

    近日,阿里巴巴的開源Qwen2.5模型AI領域再次展現(xiàn)其強大實力,為斯坦福大學與伯克利大學的研究人員提供了低成本的
    的頭像 發(fā)表于 02-12 13:42 ?1204次閱讀

    Qwen大模型助力開發(fā)低成本AI推理方案

    阿里巴巴的開源Qwen2.5模型近期在AI領域引發(fā)了廣泛關注。這模型的推出,為斯坦福大學與伯克利
    的頭像 發(fā)表于 02-12 09:19 ?931次閱讀

    SparseViT:以非語義為中心、參數(shù)高效的稀疏化視覺Transformer

    ? 背景簡介 隨著圖像編輯工具和圖像生成技術的快速發(fā)展,圖像處理變得非常方便。然而圖像在經(jīng)過處理后不可避免的會留下偽影(操作痕跡),這些偽影
    的頭像 發(fā)表于 01-15 09:30 ?732次閱讀
    SparseViT:以非語義為中心、參數(shù)高效的稀疏化視覺Transformer

    借助谷歌Gemini和Imagen模型生成高質量圖像

    在快速發(fā)展的生成AI 領域,結合不同模型的優(yōu)勢可以帶來顯著的成果。通過利用谷歌的 Gemini 模型來制作詳細且富有創(chuàng)意的提示,然后使用 Imagen 3
    的頭像 發(fā)表于 01-03 10:38 ?1257次閱讀
    借助谷歌Gemini和Imagen<b class='flag-5'>模型</b><b class='flag-5'>生成</b>高質量<b class='flag-5'>圖像</b>

    大語言模型優(yōu)化生成管理方法

    大語言模型的優(yōu)化生成管理是個系統(tǒng)工程,涉及模型架構、數(shù)據(jù)處理、內(nèi)容控制、實時響應以及倫理監(jiān)管等多個層面。以下,是對大語言模型優(yōu)
    的頭像 發(fā)表于 12-02 10:45 ?605次閱讀

    字節(jié)發(fā)布SeedEdit圖像編輯模型

    近日,字節(jié)跳動公司在其豆包大模型團隊的官方網(wǎng)站上,正式公布了其最新的通用圖像編輯模型——SeedEdit。這款創(chuàng)新性的圖像編輯模型,為用戶
    的頭像 發(fā)表于 11-12 10:43 ?1001次閱讀