Tiktok 難民湧入小紅書,警惕哪些不是“真人”

文章來源: - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
被閱讀次數

開篇先是經典的猜圖環節,問:以下哪些是由 AI 生成的照片?(答案在下文中)

當我第一次在 Reddit 上看到這些圖片時,我人一整個不可思議住了,我真的無法分辨,這種真實度跟我用 iPhone 給朋友拍的有什麽區別?

印象裏,AI 生圖還是“畸形手指”搭配“光滑到沒有毛孔的皮膚”。怎麽現在進化到能拿去做“殺豬盤”的地步了?

我在社區裏順藤摸瓜,發現“AI 攝影師”不知不覺已經成了新賽道了。

如何生成“iPhone直出”圖片

這些頗有質感的圖片來自 Reddit 上“r/stablediffusionreal”社區,發帖人叫 dal_mac,是一名個人 AI 開發者。

Tiktok 難民湧入小紅書,警惕哪些不是“真人”

Reddit

這個社區致力於在開源模型 Stable Diffusion 基礎上,生成逼真的人物肖像,越擬真,帖讚越高。

這個名為“iPhone Realism”的帖子一經發出,熱度越來越高,不僅引爆了社區,還破圈傳播到了 Instagram、LinkedIn 甚至微博。不少人在評論區努力尋找 AI 痕跡,直到認輸,紛紛“求教學”。

比如下麵這張圖,我快找“瞎”了,把圖片放大再放大,才勉強看到幾處“不算自然”的地方:



Reddit

· 應該放到側邊的門把手錯位了,放到了門中間

· 仔細看後腳的鞋帶,斷開了

如果你們還能看出什麽來,歡迎“抓出AI”在評論區見。

dal_mac 到底怎麽做到的?他在帖子裏提到“Flux”。

Flux 是由Stability AI 前員工在 2024 年才推出的一款半開源的文本生成圖片模型。根據 AI 模型測評平台 Artificial Analysis 分析結果,Flux.1 在圖像質量上超過了 Midjourney 和 OpenAI 的 DALL·E

Flux 以高擬真的圖像生成能力著稱,此前曾因為生成的圖像走“寫實流”還被媒體點名批評過,尤其是在 X 上,充斥著 Flux 生成的名人 AI 圖,黴黴和特朗普都是它的“受害者”。



X

我也慕名去用了 Flux 生成了一張寫實風照片,特意強調“就像 iPhone 拍出來一樣的自然寫實”,結果生成的是,腫脹到看不清關節的手指,絲滑到把磨皮開到最大的皮膚,搭配過分模糊的背景(以及找不到一個地方叫“UNNIVEE LTL STUDIIC”)。



Flux

對咯,這才是我印象中的 AI 生成人像圖嘛!

Yes,微do

dal_mac 稱對 Flux 模型進行了 fine-tune。對於個人開發者來說,這種訓練方式大大減少了對數據需求和計算成本。但 dal_mac 說,他也是花了兩年時間,多次測試,才用 Flux 微調到能“以假亂真”的程度

dal_mac 如此評價現在市麵上模型的生成效果,缺點是結果太準確了(這裏可能是說一絲不苟的發型和毫無瑕疵的臉蛋),肖像太完美了。人們花錢去找專業攝像是為了看起來比平時稍微好一點。現在好太多了,好到丟失了自然人的美感

經 dal_mac 微調後的“iPhone 寫實主義風格”模型,生圖的確沒有很強的“AI 味兒”,畫麵有質感,人像沒有完美到像P出來的,屬於是能經得起 Instagram、小紅書上網友推敲的程度



Reddit

不隻是 dal_mac,整個 r/stablediffusionreal 上都在比拚誰做的“fine-tune”更好。比如“iPhone Realism”後,社區上出現的另一個熱帖,“2000s Analog Core”。

該作者 Danrisi 同樣是用 Flux 微調的模型生成了近乎完美的千禧年低像素風的照片。一點開,恍惚之間我還以為打開了掛在電腦上180 萬像素攝像頭。





2000s Analog Core丨Reddit

2000s Analog Core 融合了 VHS(家用錄像係統)和千禧年數碼相機的效果,適合拿來做懷舊、低保真肖像風格圖片。

Danrisi 直接開源了自己的 LoRa(直譯為大語言模型的低階適應,一種更輕量化的 fine-tune,可以直接套用成 AI 生圖裏的一個插件,效果類似相機“濾鏡”),使用起來比 P 圖軟件更方便,都不用一張實拍圖做“底圖”,想要什麽告訴 AI 來生成就好了。





套用 2000s Analog Core LoRa 後網友生成的圖片丨civitai

以這兩人為代表,他們正在開辟一條“定製化 AI 攝影”的新賽道

客戶提供給他們一張自拍,就能得到一套影集,模擬出不同地點、風格、甚至不同設備拍出的照片。

開篇那套人像圖就是這麽來的。

當帖子被轉載火了之後,LinkedIn上有人質疑:dal_mac 那套圖就是真人吧。



LinkedIn

dal_mac 自己解釋,她是自己的一個客戶,用她的臉部照片在模型裏跑出來的以上圖片。即這些照片是 AI 生成的,但也是基於一個真實存在的女性的臉他把這項服務稱為remote photography(我翻譯成 AI 攝影)



原作者澄清

隻是不太好界定,是 AI,還是人,是那個“攝影師”。

就在我疑惑著這項服務有誰會買時,看見一則評論,“我在想要不要給自己 LinkedIn 弄一張專業的照片,我來試試這個。”

授人以魚,不如授人以漁。dal_mac 現在也開始賣課了:教人怎麽當“AI 攝影師”

真的假的,重要嗎?

“舊的攝影世界剛剛被摧毀了,這有好有壞。可能再也很難理解什麽是真實,但生成結果令人驚歎。”有人在看完那些真實感十足的圖片後,留下了這條評論。

正是低像素、噪點和千禧年氛圍感,讓圖片少了很多“光滑的 AI 感覺”,也模糊了很多細節,反而在人們眼裏,有種跟偶爾翻出來品味的老照片相似的真實感。

不知道你發現沒有,人類對待 AI 生成人像的態度發生了扭轉以前嫌 AI 不夠真,漏洞百出一眼 AI。現在又嫌 AI 太完美,好到不自然沒質感

AI 生成視覺效果的擬真度確實狠狠往前邁了一大步,這讓人類判斷虛假和真實之間的過渡帶變得更窄,模糊了界限也是常有的事兒。

有AI工程師在 DuckDuckGoose AI 上檢測了dal_mac 生成的圖片,沒花多長時間就確認了:它確實是 AI 生成的。

pi-labs.ai 官方也回帖稱“我們用 DeepFake 檢測工具 Authentify 掃描了圖像,表明該圖像是使用 AI 合成生成的。”



pi-labs

也就是說,人是真的,圖是假的,給真人做了張假圖,但假圖看得像真的。(那什麽是真的?你說什麽是真的?)

dal_mac 原帖中還有一張比較“擦邊”的圖片,後麵有網友用圖生視頻模型,將該擦邊圖做成了一條擦邊視頻。就算 dal_mac 取得了客戶授權,畢竟禍從此出,你說,這鍋又該扣在誰的頭上?

於是大家又開始對 AI 倫理展開了討論,有呼籲在相機中內置數字簽名的,以後用來驗證“實拍”還是“生成圖”;有說保護公民肖像權益,尤其女性照片不能用來生成擦邊、色情內容的;當然也有躺平派,說新一代人看什麽都”先入為假”就好了.......

事實證明,最後這句“大實話”也並非沒有道理。人們雖然分不清真假,但總能被“情緒”成功帶著走。

如今,dal_mac 原帖下的最高讚(除了澄清評論外)寫的是:

“我要是告訴你們,這就不是 AI。這個女生是真實的。我讀到一篇文章,她在照片裏認出了自己,並且已經起訴了原作者了。”

這時你需要點開“展開”才能讀到下麵這段話。

“上麵我說的不是真的,而是我編的。不過你剛才信了,對吧?AI 也好,人也罷,互聯網上的‘現實’到底是什麽?既然我們本來也總是盲目地吞下謊言,為什麽現在這種變化會讓我們感到擔憂呢?

或許我們麵對 AI 帶來的真假難辨,不是一個技術問題,而是一個……哲學問題?

回到文章開頭的投票,正確答案是:ABCD。

查看評論(7)