亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

借助NVIDIA Cosmos模型提升機器人訓練效率

NVIDIA英偉達企業(yè)解決方案 ? 來源:NVIDIA英偉達企業(yè)解決方案 ? 2025-09-23 15:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著物理 AI 系統(tǒng)的不斷發(fā)展,對豐富標記數據集的需求正在急速增長,已經超出了在現實世界中通過人工采集所能滿足的范圍。世界基礎模型(WFMs)是經過訓練的生成式 AI 模型,能夠根據現實世界環(huán)境的動態(tài),對未來的世界狀態(tài)進行仿真、預測和推理,這類模型有望幫助突破這一數據難題。

NVIDIA Cosmos是面向機器人及智能汽車等物理 AI 系統(tǒng)的世界基礎模型開發(fā)平臺。Cosmos 世界基礎模型包含三種可針對特定應用進行后訓練的模型類型:Cosmos Predict、Cosmos Transfer和Cosmos Reason。

Cosmos Predict 可根據圖像、視頻和文本提示生成關于“未來世界狀態(tài)”的視頻。Cosmos Transfer 使開發(fā)者能夠根據 2D 輸入和文本提示實現逼真的風格轉換。Cosmos Reason 作為視覺語言推理模型,可以對生成的數據進行篩選和標注,也可以通過后訓練,轉化為機器人視覺-語言-動作(VLA)模型。這些生成數據可用于訓練物理 AI 和工業(yè)視覺 AI,使其具備空間感知理解、運動軌跡規(guī)劃以及執(zhí)行復雜任務的能力。

本期 NVIDIA 機器人研究與開發(fā)摘要(R2D2)探討了 NVIDIA 研究中心推出的 Cosmos 世界基礎模型及工作流。本文將深入探討以下模型在物理 AI 應用的合成數據生成(SDG)與數據管理過程中發(fā)揮的關鍵作用:

1. Cosmos Predict:

適用于輔助駕駛的 Single2MultiView

Cosmos-Drive-Dreams

NVIDIA Isaac GR00T-Dreams

DiffusionRenderder

加速視頻生成

2. Cosmos Transfer:

適用于輔助駕駛的 Cosmos Transfer

邊緣模型蒸餾

3. Cosmos Reason

Cosmos Predict:

NVIDIA 研究中心為機器人打造的未來仿真模型

Cosmos Predict 模型可以針對機器人和智能汽車等物理 AI 應用進行后訓練。該模型以文本、圖像或視頻的形式輸入,并生成連貫且物理準確的未來幀。這項技術顯著加速了合成數據生成(SDG)的進程,為后訓練 AI 模型執(zhí)行復雜物理任務提供支持。下面分享后訓練的應用實例。

Single2MultiView

適用于輔助駕駛的 Single2MultiView,經過 Cosmos Predict 模型的后訓練,可從單一的前視輔助駕駛視頻生成多個連貫的攝像頭視角。該系統(tǒng)可為輔助駕駛開發(fā)提供同步的多視角攝像頭影像數據。

單視角輸入視頻的推理示例:

CUDA_HOME=$CONDA_PREFIXPYTHONPATH=$(pwd) python cosmos_predict1/diffusion/inference/video2world_view_extend_multiview.py 
  --checkpoint_dir checkpoints 
  --diffusion_transformer_dir
Cosmos-Predict1-7B-Video2World-Sample-AV-Single2MultiView/t2w_model.pt 
  --view_condition_video assets/diffusion/sv2mv_input_view.mp4 
  --num_input_frames 1 
  --condition_location"first_cam"
  --prompt"${PROMPT}"
  --prompt_left"${PROMPT_LEFT}"
  --prompt_right"${PROMPT_RIGHT}"
  --prompt_back"${PROMPT_BACK}"
  --prompt_back_left"${PROMPT_BACK_LEFT}"
  --prompt_back_right"${PROMPT_BACK_RIGHT}"
  --video_save_name diffusion-single2multiview-text2world

Cosmos-Drive-Dreams

Cosmos-Drive-Dreams 為輔助駕駛生成復雜駕駛場景的工作流。Cosmos Drive 模型經過駕駛領域的后訓練,可生成多視圖、高保真、時空一致的駕駛數據。使用經過后訓練的 Cosmos Transfer 模型對生成的多視角數據進行增強,以提高在低能見度條件下的泛化能力(如霧天、雨天),從而完成 3D 車道檢測、3D 物體檢測和駕駛策略學習等任務。

Isaac GR00T-Dreams

基于 DreamGen 的 Isaac GR00T-Dreams,是用于生成大規(guī)模人形機器人合成軌跡數據的藍圖,實現了從真實數據到真實數據的完整工作流。該架構使用 Cosmos Predict 技術,通過圖像和文本提示生成多樣化、逼真的機器人任務執(zhí)行視頻,并從中提取被稱為“神經軌跡”的動作數據用于機器人策略訓練。這種方法能夠幫助機器人在最少人類參與的情況下學習新技能并適應不同環(huán)境。

在 GR1 數據集上對 GR00T 模型進行后訓練的示例如下:

EXP=predict2_video2world_training_2b_groot_gr1_480


torchrun--nproc_per_node=8--master_port=12341-m scripts.train --config=cosmos_predict2/configs/base/config.py -- experiment=${EXP}

DiffusionRenderer

DiffusionRenderer 是一款神經渲染框架,僅需單段視頻輸入,無需依賴顯式的 3D 幾何結構或光照數據,就能實現逼真的重新打光、材質編輯與物體植入功能。該框架借助視頻擴散模型估算場景屬性,進而生成真實感極強的新圖像。引入 Cosmos Predict 的擴散模型后,DiffusionRenderer 的光照處理能力得到顯著提升,能夠輸出精度更高、時間維度上更連貫的渲染結果。這一技術對物理 AI 仿真具有重要價值,能夠使場景編輯具備更高的效率與可控性。

7a9273f2-9541-11f0-8c8f-92fbcf53809c.jpg

圖 . DiffusionRenderer 方法概述

以下是視頻重新打光的示例命令。該命令通過逆向渲染器對幀序列應用新光照,并生成重新打光后的視頻幀:

CUDA_HOME=$CONDA_PREFIX PYTHONPATH=$(pwd) python cosmos_predict1/diffusion/inference/inference_forward_renderer.py 
 --checkpoint_dir checkpoints 
 --diffusion_transformer_dir Diffusion_Renderer_Forward_Cosmos_7B 
 --dataset_path=asset/example_results/video_delighting/gbuffer_frames 
 --num_video_frames 57 
 --envlight_ind 0123 
 --use_custom_envmap=True 
 --video_save_folder=asset/example_results/video_relighting/

加速視頻生成

加速視頻生成模型 Cosmos-Predict2 現在通過鄰域注意力機制(NATTEN),提高了對相關視頻區(qū)域的聚焦能力。該注意力系統(tǒng)具有層級自適應性,可動態(tài)平衡全局和局部上下文,以實現速度和質量的最佳平衡。通過在模型層中實現稀疏注意力,可以最大限度地減少視頻生成過程中的冗余計算。鄰域注意力機制通過針對 NVIDIA 硬件優(yōu)化的后端代碼進一步提升了效率。因此,在部分 NVIDIA GPU 上,視頻推理速度可提升 2 到 2.5 倍。

Cosmos Transfer:

用于機器人和智能汽車的可控合成數據生成方案

Cosmos Transfer 模型基于多種控制輸入生成世界仿真場景,包括分割圖、深度圖、邊緣圖、激光雷達掃描、關鍵點和高精地圖等。這些多模態(tài)控制方式使用戶在通過文本提示生成多樣化視覺特征的同時,能夠精準控制場景構成。該技術旨在增強合成數據集的視覺多樣性,全面提升機器人與智能汽車應用中從仿真到現實的遷移效果。

Cosmos Transfer 應用

現在,讓我們來看看使用 Cosmos Transfer 的一些工作流。

CosmosTransfer for AVs

Cosmos Transfer for AVs 能夠通過多樣化文本提示,從單一駕駛場景生成新的環(huán)境條件(如天氣、光照和地形)。該技術采用多模態(tài)控制作為輸入來增強數據多樣性,例如在 Cosmos Drive Dreams 應用場景中所示。這項技術對創(chuàng)建輔助駕駛訓練數據集具有重要意義,因為它能根據用戶文本提示,基于單一視頻實現大規(guī)模數據生成。

Cosmos Transfer 通過輸入同一段視頻并結合不同的文本提示(如“雪天”或“夜間場景”)生成各種條件和邊緣情況。

基于文本提示和高精地圖條件視頻,使用 Cosmos Transfer 生成 RGB 視頻的示例命令如下:

exportCUDA_VISIBLE_DEVICES="${CUDA_VISIBLE_DEVICES:=0}"
exportCHECKPOINT_DIR="${CHECKPOINT_DIR:=./checkpoints}"
exportNUM_GPU="${NUM_GPU:=1}"
PYTHONPATH=$(pwd) torchrun --nproc_per_node=$NUM_GPU--nnodes=1 --node_rank=0 cosmos_transfer1/diffusion/inference/transfer.py 
  --checkpoint_dir$CHECKPOINT_DIR
  --video_save_folder outputs/example1_single_control_edge_distilled 
  --controlnet_specs assets/inference_cosmos_transfer1_single_control_edge.json 
  --offload_text_encoder_model 
  --offload_guardrail_models 
  --num_gpus$NUM_GPU
  --use_distilled

邊緣模型蒸餾

邊緣模型蒸餾是 Cosmos Transfer 的改進版本。原始的 Cosmos Transfer 模型需要經過 70 次處理才能生成視頻,計算成本高昂。針對邊緣模式的模型蒸餾技術能夠產出更輕量的學生模型,該模型能夠在單一步驟中執(zhí)行相同的任務,且生成質量與原始模型高度一致。其他控制模式(如深度圖、分割圖、高清地圖和激光雷達)也可以通過類似的方式進行性能提升。通過減少視頻生成所需的計算工作量,可實現更快、更經濟的部署??梢酝ㄟ^--use_distilled 參數啟用蒸餾版本。

Cosmos Reason:

面向物理 AI 的長時推理框架

Cosmos Reason 是專注于物理 AI 推理的世界基礎模型,能夠理解物理常識,并通過長鏈式思維推理生成適當的具體決策。該模型能深度理解動作序列與現實世界約束,因此在合成數據生成(SDG)過程中可作為評估器來篩選高質量訓練數據。該模型分兩個階段進行訓練:監(jiān)督式微調(SFT)和強化學習。

7b5e6a52-9541-11f0-8c8f-92fbcf53809c.jpg

圖 . Cosmos Reason 架構概述

監(jiān)督微調(SFT)訓練可以提高CosmosReason 模型在特定任務上的性能。例如,使用 robovqa 數據集進行訓練可以提高機器人在視覺問答應用場景中的表現。以下是啟動監(jiān)督微調訓練的示例命令:

cosmos-rl --config configs/cosmos-reason1-7b-fsdp2-sft.toml
./tools/dataset/cosmos_sft.py

本文是“NVIDIA 機器人研究與開發(fā)摘要(R2D2)”的一部分,旨在讓開發(fā)者更深入地了解 NVIDIA 研究中心在物理 AI 和機器人應用方面的最新突破。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關注

    關注

    213

    文章

    30398

    瀏覽量

    218785
  • NVIDIA
    +關注

    關注

    14

    文章

    5464

    瀏覽量

    108761
  • 模型
    +關注

    關注

    1

    文章

    3627

    瀏覽量

    51612

原文標題:R2D2:利用 NVIDIA 研究中心的世界基礎模型和工作流提升機器人訓練效率

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    借助NVIDIA技術提升機器人的移動和全身控制能力

    我們通過在自身平臺上經過驗證的先進研究來應對這些挑戰(zhàn)。我們的方法將前沿研究與工程工作流相結合,并在我們的 AI 和機器人平臺(包括 NVIDIA Omniverse、Cosmos、Isaac Sim
    的頭像 發(fā)表于 04-27 15:14 ?1004次閱讀
    <b class='flag-5'>借助</b><b class='flag-5'>NVIDIA</b>技術<b class='flag-5'>提升機器人</b>的移動和全身控制能力

    Al大模型機器人

    理解能力強大: AI大模型機器人可以理解和生成自然語言,能夠進行復雜的對話和語言任務。它們能夠識別語言中的語義、語境和情感,并據此作出適當的回應。廣泛的知識儲備: 這些模型基于大規(guī)模的數據集進行
    發(fā)表于 07-05 08:52

    《具身智能機器人系統(tǒng)》第7-9章閱讀心得之具身智能機器人與大模型

    研讀《具身智能機器人系統(tǒng)》第7-9章,我被書中對大模型機器人技術融合的深入分析所吸引。第7章詳細闡述了ChatGPT for Robotics的核心技術創(chuàng)新:它摒棄了傳統(tǒng)的分層控制架構,創(chuàng)造性地
    發(fā)表于 12-24 15:03

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人模型

    近年來,人工智能領域的大模型技術在多個方向上取得了突破性的進展,特別是在機器人控制領域展現出了巨大的潛力。在“具身智能機器人模型”部分,作者研究并探討了大
    發(fā)表于 12-29 23:04

    CES | 用 NVIDIA Isaac Sim 2022.2 模擬未來智能機器人

    智能機器人的開發(fā)、測試、培訓和部署。 使用 NVIDIA Isaac Sim ,您可以輕松導入您選擇的機器人模型。使用它來構建真實的環(huán)境以驗證機器人
    的頭像 發(fā)表于 01-06 22:30 ?1691次閱讀

    谷歌借助Gemini AI系統(tǒng)深化對機器人訓練

    7月12日,國際科技界傳來新動態(tài),谷歌正借助其先進的Gemini AI系統(tǒng),深化對旗下機器人訓練,旨在顯著提升它們的導航能力和任務執(zhí)行能力。DeepMind
    的頭像 發(fā)表于 07-12 16:29 ?1242次閱讀

    NVIDIA Cosmos世界基礎模型平臺發(fā)布

    NVIDIA 宣布推出NVIDIA Cosmos,該平臺由先進的生成式世界基礎模型、高級 tokenizer、護欄和加速視頻處理管線組成,將推動自動駕駛汽車(AV)和
    的頭像 發(fā)表于 01-08 10:39 ?911次閱讀

    NVIDIA發(fā)布Cosmos?平臺,助力物理AI系統(tǒng)發(fā)展

    NVIDIA近日宣布推出全新的NVIDIA Cosmos?平臺,該平臺專為自動駕駛汽車(AV)和機器人等物理AI系統(tǒng)而設計,旨在推動這些領域的快速發(fā)展。
    的頭像 發(fā)表于 01-08 15:36 ?850次閱讀

    英偉達推出基石世界模型Cosmos,解決智駕與機器人具身智能訓練數據問題

    。Cosmos 世界基礎模型(WFM)使開發(fā)者能夠輕松生成大量基于物理學的逼真合成數據,以用于訓練和評估其現有的模型。開發(fā)者還可以通過微調 Cosm
    的頭像 發(fā)表于 01-14 11:04 ?1916次閱讀
    英偉達推出基石世界<b class='flag-5'>模型</b><b class='flag-5'>Cosmos</b>,解決智駕與<b class='flag-5'>機器人</b>具身智能<b class='flag-5'>訓練</b>數據問題

    通過NVIDIA Cosmos模型增強機器人學習

    通用機器人的時代已經到來,這得益于機械電子技術和機器人 AI 基礎模型的進步。但目前機器人技術的發(fā)展仍面臨一個關鍵挑戰(zhàn):機器人需要大量的
    的頭像 發(fā)表于 07-14 11:49 ?638次閱讀
    通過<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Cosmos</b><b class='flag-5'>模型</b>增強<b class='flag-5'>機器人</b>學習

    利用NVIDIA Cosmos模型訓練通用機器人

    機器人領域的一大核心挑戰(zhàn)在于如何讓機器人掌握新任務,而無需針對每個新任務和環(huán)境耗費大量精力收集和標注數據集。NVIDIA 的最新研究方案通過生成式 AI、世界基礎模型(如
    的頭像 發(fā)表于 08-05 16:22 ?1602次閱讀
    利用<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Cosmos</b><b class='flag-5'>模型</b><b class='flag-5'>訓練</b>通用<b class='flag-5'>機器人</b>

    NVIDIA通過全新 Omniverse庫、Cosmos物理AI模型及AI計算基礎設施,為機器人領域開啟新篇章

    NVIDIA 通過全新 Omniverse 庫、Cosmos 物理 AI 模型及 AI 計算基礎設施,為機器人領域開啟新篇章 ? ·?全新 NVID
    的頭像 發(fā)表于 08-12 11:29 ?1261次閱讀
    <b class='flag-5'>NVIDIA</b>通過全新 Omniverse庫、<b class='flag-5'>Cosmos</b>物理AI<b class='flag-5'>模型</b>及AI計算基礎設施,為<b class='flag-5'>機器人</b>領域開啟新篇章

    NVIDIA三臺計算機解決方案如何協(xié)同助力機器人技術

    NVIDIA DGX、基于 NVIDIA RTX PRO 服務器的 Omniverse 和 Cosmos,以及 Jetson AGX Thor,正全面加速從人形機器人
    的頭像 發(fā)表于 08-27 11:48 ?1877次閱讀

    NVIDIA 利用全新開源模型與仿真庫加速機器人研發(fā)進程

    科研人員及開發(fā)者打造功能更強大、適應性更強的機器人。 ? 全新的 NVIDIA Isaac GR00T 開源基礎模型將為機器人賦予接近人類的推理能力,使其能夠拆解復雜指令,并
    的頭像 發(fā)表于 09-30 09:52 ?2696次閱讀
    <b class='flag-5'>NVIDIA</b> 利用全新開源<b class='flag-5'>模型</b>與仿真庫加速<b class='flag-5'>機器人</b>研發(fā)進程

    如何借助OpenUSD提升機器人開發(fā)流程效率

    機器人需求的日益增長,正以前所未有的規(guī)模推動對物理精確仿真的需求。通用場景描述(OpenUSD)是這一變革的關鍵,它為構建機器人可在其中學習的虛擬世界提供了強大的開源標準。
    的頭像 發(fā)表于 10-24 14:22 ?420次閱讀