一張 AI 的「自畫像」

39

AI 應該長什麼樣子?常見的答案不外乎:像機器人,像一組閃爍的 LED 燈,或像一組變幻莫測的波形。那麼在 AI 眼中,AI 應該長什麼樣子?

直接方法大概是讓 AI 畫一張自畫像。比如這張。

一張 AI 的「自畫像」

這張圖是 IBM 研究人員安排 AI 畫的自畫像,發表在 10 19 日的《紐約時報》。

《紐約時報》月下旬找上 IBM 研究院,希望他們幫忙想想如何用特殊方式讓 AI 生出一幅藝術作品,以便用在 10 月的 AI 特輯。時間不多,也無法決定最後的效果,故決定讓 AI 創作原創作品。而工作目標是高層次抽象──要展現 AI 的重要概念,創作一幅能展示這個概念的原創作品,且視覺風格還要與《紐約時報》相符。

「自畫像」這件事對 AI 來說有點耐人尋味。畢竟,AI 是看不見摸不著的資訊處理工具,它能分析路況轉化成駕駛指令(自駕車)、能把影像訊號變成位置和機率匯出(影像辨識)、能把數位化後的連續波形訊號轉換成離散的文字符號(語音辨識),但這些工作都不需要 AI 創造任何新事物,它只是根據訓練過程學到的資料分析匯入、產生匯出而已。即便如今在影像和語義理解已有不小進步,也仍然很難想像如何讓 AI「思考自己看起來長什麼樣子」。

如今面對這幅作品,外行眼中有種老生常談的味道,因為看起來只不過是(AI 和人)手拉手動作的數位化塗鴉。但看過創作流程介紹之後,內行就會會心一笑──這還真是用深度學習時代的標準方法,把 AI 和人類的能力結合,讓 AI 畫了一幅自畫像呢。

第一步:在 AI 中找到某個核心的視覺概念

  • 找到發表在《紐約時報》約 3 千篇關於 AI 的文章。
  • 用自然語言處理工具分析文章,找到與 AI 有關、有區分度、有語義概念的前 30 項。
  • 訓練一個用於視覺辨識的神經網路,它會影像辨識這前 30 項概念。
  • 找到《紐約時報》所有直接說明或含有 AI 意義的圖片,用這個網路評分影像。
  • 評分前 10 名的影像,由參與項目的研究員、工程師、藝術家選出一張認為貼切的:一張人和機器人握手的畫面。

第二步:創作一幅捕捉到 AI 概念的原創影像

  • 構建一個超過 1 千張影像組成的資料集,影像內容是人手和機械手。
  • 用資料集訓練一個對抗性生成式網路(GAN),讓它繪製一幅包含人手和機械手的新影像;這個過程耗費 個日夜。

第三步:以符合《紐約時報》的視覺風格呈現

  • 收集一些《紐約時報》舊封面圖,訓練一個影像風格轉換網路。
  • 用這個網路對第二步繪製的人手和機械手影像自動風格轉換,以便符合《紐約時報》封面的「視覺語言」。
  • 根據總體概念清晰度和藝術風格,選出一張最終影像──就是上圖。

這是一個典型融合 AI 的計算能力和人類藝術創造、判斷能力的流程,且也可以生成其他領域的藝術作品。

正與影像展示、創作過程一樣,人類與 AI 的共同未來應當是攜手互助,不是此消彼長、互相對抗。

(本文由 雷鋒網 授權轉載;首圖來源:shutterstock)