最近,一個名為DragGAN的AI 圖片編輯工具爆火,它實(shí)現(xiàn)了點(diǎn)擊鼠標(biāo)、拖動關(guān)鍵點(diǎn)就能達(dá)到Photoshop的效果。對比之下,使用Photoshop等工具時候,需要具備相對專業(yè)的技能才能靈活,精確地控制單個對象的位置,形狀,表達(dá)或排列。
簡單的說,DragGAN使用戶能夠在圖像上確定一個點(diǎn),就能改變圖片結(jié)構(gòu)和整個像素。它與其他流行的生成AI圖像工具(如Dall-E和Midjourney)有很大的區(qū)別,后者雖然能夠通過文本提示生成特定的圖片,但無法精確輸出所需的姿勢或布局。
據(jù)了解,DragGAN新模型由MIT、谷歌、馬普所等機(jī)構(gòu)聯(lián)手打造,該項(xiàng)目相關(guān)論文已入選SIGGRAPH2023,研究人員展示了一種控制GAN進(jìn)行圖像處理的新方法。
簡單拖拽就能實(shí)現(xiàn)圖片編輯
只要處理的圖片與GAN訓(xùn)練數(shù)據(jù)集的類別匹配,DragGAN就可以處理逼真的圖像。這些類別包括動物、汽車、人、細(xì)胞和景觀。
論文示例展示了在一個簡單的界面中,用戶可以將他們在圖像中定義的點(diǎn)拖動到所需的位置,就是實(shí)現(xiàn)圖片編輯。例如,讓貓咪閉上眼睛,讓獅子轉(zhuǎn)頭并張開它的嘴,或?qū)⑵囖D(zhuǎn)換為另一種模型。
DragGAN 還提供了遮罩功能,允許用戶突出顯示他們希望更改的圖像的特定部分,而其余部分保持不變。
該團(tuán)隊(duì)表示:“通過DragGAN,任何人都可以通過精確控制像素的位置來變形圖像,從而操縱不同類別的姿勢、形狀、表情和布局。”
DragGAN 研究論文還強(qiáng)調(diào)了該工具的最大優(yōu)勢,界面的簡單性和直觀性。在幾秒鐘內(nèi),用戶可以掌握功能,而無需弄清楚底層技術(shù)。
未來,如果將DragGAN 與AI圖像生成工具搭配使用,用戶將能夠?qū)崿F(xiàn)更接近他們心目中的圖像的輸出。
原創(chuàng)文章,作者:蘋果派,如若轉(zhuǎn)載,請注明出處:http://rponds.cn/article/571780.html