在人工智慧技術的發展之下,透過 AI 對圖片進行基本分類已經不是什麼難事,而 Google 的研究團隊最近更展示出一種新方法,教會 AI 從多張相似圖片中,挑選出人們的審美觀普遍認為較好的圖片。
TNW 報導指出,透過深度學習來訓練卷積神經網路(CNN),研究人員讓 AI 學會預測人類對圖片的喜好,進而替圖片評分,團隊將這種模式稱為神經圖像評估(NIMA)。
與傳統的方式不同,NIMA 採取的是 10 分制評分,在檢查特定像素和整體美學後,NIMA 會以深度學習了解到的人們對這些資料評分的傾向,為每張圖片評出一個分數。
這並不是在說機器能像人一樣「感覺」或「思考」,但這項設計確實能讓電腦具一些程度的審美觀,進而成為更好的藝術家或策展者。團隊認為,NIMA 未來可用來從大量圖片篩選最好的圖片。
許多攝影者為了捕捉到最好的影像,經常選擇某些瞬間拍攝 20~30 張圖片,在這種情況下,NIMA 便能為你節省大量空間與時間。試著想像只要按下按鈕,AI 便會替你瀏覽這些圖片後,挑選出最好的一張並刪除其他圖片。
除了幫助攝影者挑選照片,Google 研究部落格指出,NINA 的「基準美學」也可以協助人們改善圖片,透過引導卷積神經網路過濾器,NINA 能找到適合圖片各項參數的最佳設置,讓圖片達到完美的成果。
從 AI 廣大的應用層面來說,僅是創造一個能和人類一樣理解圖片質量的神經網路,聽起來並不是非常具革命性意義,但為了讓 AI 能在現實生活執行任務,像是在無人幫助的情況下自動駕駛汽車,AI 必須學會觀察並瞭解周遭環境,而類似人類視覺應用便是必要的,NIMA 及類似的項目正在奠定基礎。
(圖片來源:Google research Blog)