把大象P轉身隻需拖動鼠標,華人神作AI爆火

文章來源: - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
(被閱讀 次)

如果甲方想把大象 P 轉身,你隻需要拖動 GAN 就好了。

在圖像生成領域,以 Stable Diffusion 為代表的擴散模型已然成為當前占據主導地位的範式。但擴散模型依賴於迭代推理,這是一把雙刃劍,因為迭代方法可以實現具有簡單目標的穩定訓練,但推理過程需要高昂的計算成本。

在 Stable Diffusion 之前,生成對抗網絡(GAN)是圖像生成模型中常用的基礎架構。相比於擴散模型,GAN 通過單個前向傳遞生成圖像,因此本質上是更高效的。但由於訓練過程的不穩定性,擴展 GAN 需要仔細調整網絡架構和訓練因素。因此,GAN 方法很難擴展到非常複雜的數據集上,在實際應用方麵,擴散模型比 GAN 方法更易於控製,這是 GAN 式微的原因之一。

當前,GAN 主要是通過手動注釋訓練數據或先驗 3D 模型來保證其可控性,這通常缺乏靈活性、精確性和通用性。然而,一些研究者看重 GAN 在圖像生成上的高效性,做出了許多改進 GAN 的嚐試。

最近,來自馬克斯普朗克計算機科學研究所、MIT CSAIL 和穀歌的研究者們研究了一種控製 GAN 的新方法 DragGAN,能夠讓用戶以交互的方式「拖動」圖像的任何點精確到達目標點。

論文鏈接:https://arxiv.org/abs/2305.10973

項目主頁:https://vcai.mpi-inf.mpg.de/projects/DragGAN/

這種全新的控製方法非常靈活、強大且簡單,有手就行,隻需在圖像上「拖動」想改變的位置點(操縱點),就能合成你想要的圖像。

例如,讓獅子「轉頭」並「開口」:

還能輕鬆讓小貓 wink:

再比如,你可以通過拖動操縱點,讓單手插兜的模特把手拿出來、改變站立姿勢、短袖改長袖。看上去就像是同一個模特重新拍攝了新照片:

如果你也接到了「把大象轉個身」的 P 圖需求,不妨試試:

整個圖像變換的過程就主打一個「簡單靈活」,圖像想怎麽變就怎麽變,因此有網友預言:「PS 似乎要過時了」。

也有人覺得,這個方法也可能會成為未來 PS 的一部分。

總之,觀感就是一句話:「看到這個,我腦袋都炸了。」

當大家都以為 GAN 這個方向從此消沉的時候,總會出現讓我們眼前一亮的作品:

這篇神奇的論文,已經入選了 SIGGRAPH 2023。研究者表示,代碼將於六月開源。

那麽,DragGAN 是如何做到強大又靈活的?我們來看一下該研究的技術方法。

方法概述

該研究提出的 DragGAN 主要由兩個部分組成,包括:

基於特征的運動監督,驅動圖像中的操縱點向目標位置移動;

一種借助判別型 GAN 特征的操縱點跟蹤方法,以控製點的位置。

DragGAN 能夠通過精確控製像素的位置對圖像進行改變,可處理的圖像類型包括動物、汽車、人類、風景等,涵蓋大量物體姿態、形狀、表情和布局,並且用戶的操作方法簡單通用。

GAN 有一個很大的優勢是特征空間具有足夠的判別力,可以實現運動監督(motion supervision)和精確的點跟蹤。具體來說,運動監督是通過優化潛在代碼的移位特征 patch 損失來實現的。每個優化步驟都會導致操縱點更接近目標,然後通過特征空間中的最近鄰搜索來執行點跟蹤。重複此優化過程,直到操縱點達到目標。

DragGAN 還允許用戶有選擇地繪製感興趣的區域以執行特定於區域的編輯。由於 DragGAN 不依賴任何額外的網絡,因此它實現了高效的操作,大多數情況下在單個 RTX 3090 GPU 上隻需要幾秒鍾就可以完成圖像處理。這讓 DragGAN 能夠進行實時的交互式編輯,用戶可以對圖像進行多次變換更改,直到獲得所需輸出。

如下圖所示,DragGAN 可以有效地將用戶定義的操縱點移動到目標點,在許多目標類別中實現不同的操縱效果。與傳統的形變方法不同的是,本文的變形是在 GAN 學習的圖像流形上進行的,它傾向於遵從底層的目標結構,而不是簡單地應用扭曲。例如,該方法可以生成原本看不見的內容,如獅子嘴裏的牙齒,並且可以按照物體的剛性進行變形,如馬腿的彎曲。

研究者還開發了一個 GUI,供用戶通過簡單地點擊圖像來交互地進行操作。

此外,通過與 GAN 反轉技術相結合,本文方法還可以作為一個用於真實圖像編輯的工具。

一個非常實用的用途是,即使合影中某些同學的表情管理不過關,你也可以為 Ta 換上自信的笑容:

順便提一句,這張照片正是本篇論文的一作潘新鋼,2021 年在香港中文大學多媒體實驗室獲得博士學位,師從湯曉鷗教授。目前是馬克斯普朗克信息學研究所博士後,並將從 2023 年 6 月開始擔任南洋理工大學計算機科學與工程學院 MMLab 的任助理教授。

這項工作旨在為 GAN 開發一種交互式的圖像操作方法,用戶隻需要點擊圖像來定義一些對(操縱點,目標點),並驅動操縱點到達其對應的目標點。

這項研究基於 StyleGAN2,基本架構如下:

在 StyleGAN2 架構中,一個 512 維的潛在代碼∈ N(0,)通過一個映射網絡被映射到一個中間潛在代碼∈ R 512 中。的空間通常被稱為 W。然後,被送到生成器,產生輸出圖像 I = ( ) 。在這個過程中,被複製了幾次,並被送到發生器的不同層,以控製不同的屬性水平。另外,也可以對不同層使用不同的,在這種情況下,輸入將是

,其中是層數。這種不太受約束的 W^+ 空間被證明是更有表現力的。由於生成器學習了從低維潛在空間到高維圖像空間的映射,它可以被看作是對圖像流形的建模。

實驗

為了展示 DragGAN 在圖像處理方麵的強大能力,該研究展開了定性實驗、定量實驗和消融實驗。實驗結果表明 DragGAN 在圖像處理和點跟蹤任務中均優於已有方法。

定性評估

圖 4 是本文方法和 UserControllableLT 之間的定性比較,展示了幾個不同物體類別和用戶輸入的圖像操縱結果。本文方法能夠準確地移動操縱點以到達目標點,實現了多樣化和自然的操縱效果,如改變動物的姿勢、汽車形狀和景觀布局。相比之下,UserControllableLT 不能忠實地將操縱點移動到目標點上,往往會導致圖像中出現不想要的變化。

如圖 10 所示,它也不能像本文方法那樣保持未遮蓋區域固定不變

圖 6 提供了與 PIPs 和 RAFT 之間的比較,本文方法準確地跟蹤了獅子鼻子上方的操縱點,從而成功地將它拖到了目標位置。

真實圖像編輯。使用 GAN inversion 技術,將真實圖像嵌入 StyleGAN 的潛空間,本文方法也可以用來操作真實圖像。

圖 5 顯示了一個例子,將 PTI inversion 應用於真實圖像,然後進行一係列的操作來編輯圖像中人臉的姿勢、頭發、形狀和表情:

圖 13 展示了更多的真實圖像編輯案例:

定量評估

研究者在兩種設置中下對該方法進行了定量評估,包括人臉標記點操作和成對圖像重建。

人臉標記點操作。如表 1 所示,在不同的點數下,本文方法明顯優於 UserControllableLT。特別是,本文方法保留了更好的圖像質量,正如表中的 FID 得分所示。

這種對比在圖 7 中可以明顯看出來,本文方法打開了嘴巴並調整下巴的形狀以匹配目標臉,而 UserControllableLT 未能做到這一點。

成對圖像重建。如表 2 所示,本文方法在不同的目標類別中優於所有基線。

消融實驗

研究者研究了在運動監督和點跟蹤中使用某種特征的效果,並報告了使用不同特征的人臉標記點操作的性能(MD)。如表 3 所示,在運動監督和點跟蹤中,StyleGAN 的第 6 個 block 之後的特征圖表現最好,顯示了分辨率和辨別力之間的最佳平衡。

表 4 中提供了 _1 的效果。可以看出,性能對 _1 的選擇不是很敏感,而 _1=3 的性能略好。

討論

掩碼的影響。本文方法允許用戶輸入一個表示可移動區域的二進製掩碼,圖 8 展示了它的效果:

Out-of-distribution 操作。從圖 9 可以看出,本文的方法具有一定的 out-of-distribution 能力,可以創造出訓練圖像分布之外的圖像,例如一個極度張開的嘴和一個大的車輪。

研究者同樣指出了本文方法現存的局限性:盡管有一些推斷能力,其編輯質量仍然受到訓練數據多樣性的影響。如圖 14(a)所示,創建一個偏離訓練分布的人體姿勢會導致偽影。此外,如圖 14(b)和(c)所示,無紋理區域的操縱點有時會在追蹤中出現更多的漂移。因此,研究者建議盡可能挑選紋理豐富的操縱點。

令胡衝 發表評論於


樓下一句“不過由電腦自動完成”讓人忍俊不禁。說得很輕巧。

整個AI都不過是由電腦自動完成,隻不過比人快了百千萬倍,便宜了百千萬倍,將來逐漸質量也好了十百千倍而已。
相信事實 發表評論於
這不是什麽新技術啊,好賴汙早就在使用了。這裏的關鍵點在於如何填補圖像沒有的東西。比如人張嘴裏的牙齒,那就需要通過圖片庫裏麵的其他的牙齒和嘴唇效果移植過來。

所以,這種技術仍然就是圖像的剪貼,變形,隻不過現在由電腦自動完成而已。
總是我 發表評論於
以後看見什麽都不能信了
不允許的筆名 發表評論於
雖然是第一作者,畢竟論文六人署名四人包括通訊作者都不是華人,又是德國馬克斯普朗特的
論文,"華人神作"這種說法真能給厲害國加分嗎?
弟兄 發表評論於
眼見為實已經成為歷史,到處都是假新聞,新聞必須去傳統大媒體看還有點譜,畢竟大公司會吃官司有點責任的
令胡衝 發表評論於


So cool. AI中華人領軍人物超過50%,特別是圖像領域。

以後讓誰的照片穿衣脫衣應該隻是舉手之勞了?