Site icon About 24/7

20 種「AI 犯罪」危險度大排名,Deepfake 引領其他 5 種 AI 成新型犯罪催化劑

轉載從: Tech News 科技新報

英國倫敦大學學院(University College London,UCL)發表新報告,確認並列舉未來 15 年 AI 人工智慧可能潛在協助犯罪分子的不同方式。31 位不同 AI 專家測試 20 種 AI 犯罪手法,並根據各種因素為這些手法排名。進一步來說,AI 專家根據各種變數排名這些犯罪手法,如犯罪容易程度、犯罪可能造成的潛在社會危害、罪犯能賺到多少錢,以及阻止犯罪的難易程度。根據報告結果顯示,深度造假(Deepfake)是對遵守法紀公民和社會普遍的最大威脅,因今後被罪犯和恐怖分子用來發動攻擊的可能性極大。

Deepfake 會讓人們失去對網路的信任感,「AI 犯罪即服務」將大行其道

AI 專家將 Deepfake 評選為潛在 AI 威脅排行榜第一名,因 Deepfake 不但很難辨識,且很難反制。Deepfakes 甚至在欺騙 Deepfake 專家方面都愈來愈好,甚至其他偵測 Deefake 的 AI 方法也往往不太可靠。就危害能力而言,Deepfake 很容易被惡意攻擊者用來敗壞受信任專家人物的名聲,或冒充心愛的人或其他信賴的人詐騙特定個人。一旦 Deepfake 攻擊氾濫,人們可能會開始對任何音檔或影片媒體失去信任,這可能會使人們對真實事件和新聞的可信度失去信心。

UCL 電腦科學系 Matthew Caldwell 博士是論文第一作者。Caldwell 強調,隨著愈來愈多活動轉移到網路,Deepfake 的危險也不斷成長。UCL 官網新聞引用 Caldwell 的話:

與許多傳統犯罪不同的是,數位領域的犯罪可容易地分享、複製、再現,甚至出售,這使犯罪技術可推廣,犯罪也能當作服務提供。這意味著犯罪分子可將最具挑釁戰力的 AI 犯罪攻擊手法外包給有心人。

團隊將其他 5 種新興 AI 技術列為「高度疑慮」的新型態犯罪潛在催化劑:自駕車當成犯罪武器、駭客攻擊 AI 控制的系統和裝置、以勒索為目的的線上資料收集、具客製化訊息的 AI 網路釣魚,以及針對普羅大眾的假新聞或假資訊。

AI 犯罪危險度分成高、中、低 3 種等級,未來網路將上演正邪 AI 大戰

根據 UCL 道斯未來犯罪中心(Dawes Centre for Future Crimes)主任 Shane Johnson 表示,這項研究的目標是辨識與新興技術相關的可能威脅,並設想出應對這些威脅的方法。Johnson 指出,隨著技術變革速度加快,我們必須預測未來的犯罪威脅,以便決策者和其他有能力採取行動的利益相關者能夠在新的犯罪發生之前採取行動。

關於榜單其他 14 項可能的犯罪,可分成兩類:「中度疑慮」和「低度疑慮」。「中度疑慮」的 AI 犯罪包括軍用機器人誤用與濫用、資料下毒(Data Poisoning)、自動化攻擊式無人機、基於學習的網路攻擊、針對線上活動的阻斷式服務攻擊(DoS)、操縱金融/股票市場、「蛇油」(Snake Oil,是指以 AI / 機器學習術語掩飾的詐騙式銷售服務)、用假造圖像愚弄騙過臉部辨識系統等。

「低度疑慮」AI 犯罪包括藝術偽造品或盜版音樂、AI 協助式跟蹤、AI 撰寫的假評論、規避 AI 偵測的方法,以及「闖空門機器人」(Burglar Bot,闖入人們家裡偷東西的機器人)等。

當然,AI 模型本身也可幫助打擊犯罪。最近,AI 模型已用於協助偵查洗錢勾當,以及偵查可疑的金融交易活動。操作人員會分析結果,然後批准或拒絕發警報,並利用回饋訓練模型。未來可能會上演正義聯盟與邪惡集團之間的 AI 大戰,犯罪分子試圖設計出最棒的 AI 犯罪工具,安全、執法和其他有道德的 AI 設計者試圖設計最佳 AI 偵測與防禦系統。

(首圖來源:UCL

延伸閱讀:

Exit mobile version