得益於各種套件,今天的機器學習門檻越來越低。但 Google 顯然不滿足,新推出 Teachable Machine 專案,讓用戶無需程式設計就可用手機、平板、電腦等裝置的鏡頭採集資料來機器學習。這專案是 Google 的 A.I. Experiment 一部分,來源碼已公布在 Github。
簡單的說,Teachable Machine 是一個基於瀏覽器的機器學習示範實驗,用一個叫 Deeplearn.js 的程式庫構建,網頁開發者可編寫一個簡單的視覺匯入,並設定匯出和 3 個訓練分類器,在瀏覽器訓練新的神經網路。示範影片裡 Google 沒有詳細說明更深的機器學習工作原理,但足以讓大多數人對機器學習有最基礎的概念。
如下圖所示,網頁中可呼叫鏡頭獲得不少於 30 幅的影像資訊,作為訓練的「匯入」;中間的學習框包括 3 個分類器,用 Green、Purple、Orange 表示,機器透過你做的動作學習,進而「學會」辨識相應動作;最後是匯出部分,分類器根據不同匯入,按照訓練結果分類出最右側的結果。
首先訓練 Green 分類器,如圖所示,訓練者抬起手,按下「Train Green」按鈕,鏡頭自動生成一個包含若干個抬手圖的訓練集。我們可以看到,分類器可 100% 辨識抬手的動作並與貓關聯。
類似可訓練其他分類器,例如放下手訓練 Purple 分類器並對應到狗的匯出。
然後我們就可以開始調戲機器了:如果你半舉手,機器認為你有 64% 可能是抬手,35% 可能是不抬手,對應仍然匯出貓;
如果舉另一隻手呢?機器雖然沒有見過你舉另一隻手的圖,但還是能 100% 確定應該匯出貓。
匯出可設定為圖片、音檔或語音,開發者可方便地將這些匯出調換成自己需要的素材。
對機器學習一無所知的讀者來說,該實驗可直覺地展示機器學習的基本概念。這專案執行在基於 Java 的 deeplearn.js 框架,可在大多數硬體(據回饋目前不支援 iPad Pro)大多數瀏覽器順暢執行。
完整的影片在這:
看了那麼多,你是否已迫不及待想試一下?感興趣的讀者可在 Github 檢視來源碼,自己動手試一下。
(本文由 雷鋒網 授權轉載;首圖來源:Teachable Machine)