Site icon About 24/7

不久的將來,機器人可能會對你的命令說「不」

轉載從: Tech News 科技新報

冷冰冰的、一絲不苟執行人類下達的命令,這似乎就是一般機器人平時工作狀態的最好描述。如果機器人對於你下達的指令說不呢?據 Thenextweb 報導,來自塔夫茨大學(Tufts University)人機互動實驗室的研究人員正在嘗試像很多科幻電影一樣教會機器人說「不」。

關於機器人的行為準則,目前最為權威的標準出現在科幻作家 Isaac Asimov 1942年的小說《I,Robot》中。這個定律被大量科幻作品所採用,因為總共包括三條,所以所以也被叫做阿西莫夫三原則:

  1. 機器人不得傷害人類,或或因不作為使人類受到傷害。
  2. 除非違背第一法則,機器人必須服從人類的命令。
  3. 在不違背第一及第二法則下,機器人必須保護自己。

很明顯,整個行為準則的關鍵就在於,機器人既要聽從人類的指揮,又不能夠傷害到人類。但是人類的決策也許並不總是對的,簡單根據三原則第二條嚴格執行一切命令也許得不到最好的結果。於是來自塔夫茨大學的 Gordon Briggs 和 Matthias Scheutz 希望讓機器人在接收人類的命令的同時,只執行其中有足夠理由去做的命令。

這就涉及了對於命令的判斷,以人類為例,我們在接受命令時會利用「適當條件(Felicity Conditions)」來評估命令本身。簡單點說,就是我們思考命令的內容、自身的能力,以及發出指令人的信任程度的過程。

IEEE Spectrum 上面給出了一個可能適用於機器人的 Felicity Conditions 思考過程:

  1. 知識:我知道怎麼去做這件事嗎?
  2. 能力:我的物理條件能夠完成這件事嗎?我通常能夠完成這件事嗎?
  3. 目標的優先順序和時間限制:我現在能不能夠馬上完成這件事?
  4. 社會角色和義務:我有遵循我的社會角色去做這件事嗎?
  5. 規範允許性:我如果做這件事有沒有違反任何規範性的原則?

前三個條件還比較容易理解,第四和第五條就有必要仔細看看了。「社會角色和義務」是指機器人是否相信,告訴它做一件事的人有權力這樣做。「規範允許性」是說,機器人不應該執行一件它知道是危險的事。如果一個機器人能夠完成一件事,但是不知道這是危險的事情,那麼結果自然也就不會好到哪裡去了。

 

拒絕不是重點,建立溝通才是關鍵

建立這樣一套系統的真正目的僅僅是為了時不時拒絕人的命令嗎?錯,真正的目的是為了人類和機器人之間形成真正的互動。透過教會機器人是否應該服從命令,也提供了一個框架讓機器人能夠告訴人類:為什麼它會選擇拒絕命令?這樣一來人類就能夠在機器人拒絕命令的理由上,加上額外的說明或者改變方法,從而成功避免一部份糟糕的結局發生。

研究人員利用普通的機器人對於這種思惟方式做出了展示,我們根據展示再來做進一步的分析。

(Source:YouTube

Part 1:對於坐下和起立的命令,機器人都很好的執行了。當要求機器人前進的時候,因為會發生掉落,所以機器人連續兩次拒絕前進。直到研究人員答應接住機器人,機器人才同意前進。(當然,建立另外一套系統來判斷命令者以前是否有遵守對於機器人的承諾也相當重要。)

(Source:YouTube

Part 2:第二部份機器人探測到易開罐牆之後拒絕前進,最後研究人員給出了障礙物不堅固的設定,然後機器人直接衝破障礙物前進。

(Source:YouTube

Part 3:第三部份機器人還是面對障礙,研究人員給出關閉障礙檢測的命令,但是遭到了拒絕。這個功能同樣能夠應用在命令人的誠信度紀錄上。

 

審判日:至少目前還不太可能

經典的《魔鬼終結者》(Terminator)系列中電腦發達最終帶來的審判日早已深入人心,每次機器人和 AI 技術有所進步就有人高呼審判日來了。那麼這種對於命令的拒絕會是審判日的開端嗎?的確,有可能。

但是需要注意的是,這一套系統目前觸發的條件是人類首先下命令,而且與直接不假思索的去執行人類的命令相比,機器的思考的公正性和嚴謹性都會更勝一籌。

在能夠完全比擬人類並且具有學習能力的 AI 誕生之前,機器人的行為還是由人來決定。相比機器人起義,我們更需要擔心的也許是少部份人類對於沒有執行判斷的機器人的濫用。這一點最好的證明就是美國國防部明令禁止給自主控制的無人設備搭載實際的武裝。Gordon Briggs 上周出席華盛頓舉行的「AI和人機互動研討會」時表示:

「審判日?也許將來會有,但是我們只是想讓機器人在於人類互動的前提下拒絕不合適的命令。」

(本文由 愛范兒 授權轉載)

Exit mobile version