2015 年,Google 把自家生成圖片的技術 Inceptionism 開源化,稱之為 Deep Dream ,一個原本用來將圖片分類的 AI,導入圖片後,選擇某一層神經網路(Google 的神經網路有10~30 層)進行重複處理的次數和變形的程度,就能獲得一張非常具藝術感的圖片。
輝達(Nvidia)27 日發布一則消息,生成對抗網路(GAN)的一類演算法可整合不同面孔,將兩個競爭性的神經網路放在一起,其中一個神經網路被賦予生成功能(如圖像渲染),而另一個神經網路則放在對立角色,挑戰之前的成績,這樣做可使生成的神經網路透過反彈的思路來對抗對方,產生優質的圖片結果。
輝達團隊研究出新的循序漸進訓練方法,取材於著名的個人照片 CelebA-HQ 的資料庫,他們能產生「前所未有的絕佳品質圖像」,且結果看起來相當不錯,解析度高達 1,024 像素:所有人造面孔從來沒有真正在你眼前出現過,雖然目前還只是靜態圖像(這意味著我們仍然距離動態人造面孔很遙遠),但輝達的方法也可使物體和景觀相融合,未來或許會有更多可能性。
(本文由 36Kr 授權轉載;首圖來源:Nvidia 論文)