Science發布最瘋癲影片!AI守門員以最搞笑的方式讓對手抓狂

  • 2019 年 12 月 31 日
  • 筆記

新智元報道

來源:Science,Nature

編輯:向學、張佳

【新智元導讀】近日,Science發布了一個AI瘋癲發作的影片,AI守門員以最搞笑的方式讓對手抓狂,AI相撲變成大型碰瓷現場。這項研究表明,AI太好騙,不僅會被「騙」去看一些不該看的東西,還會被「騙」去做一些不該做的事情!戳右邊鏈接上 新智元小程式 了解更多!

人工智慧一直被視為學習能力極強、學習速度極快的「超級物種」,秒殺人類不解釋、無商量;無論是在國際圍棋比賽,還是在星際爭霸遊戲對決,均多次戰勝人類頂級選手,所向披靡,不可一世。

但最近,Science發布了一個AI影片顛覆了大家對AI的認知,縱然是「聰明絕頂」的AI,也很容易被「壞朋友」帶歪,變得讓人啼笑皆非。

戳小程式查看Science完整影片「以最搞笑的方式觀看AI守門員的心理狀態」:

影片中,「小紅人」和「小藍人」看似是「癲癇發作」,其實是在展示一個人工智慧(紅色)以一種意想不到的方式戰勝另一個人工智慧(藍色)。

這是發表在NeurIPS(Neural Information Processing Systems)2019 上的一項研究。這項研究是在模擬運動中進行的:足球、相撲及某人阻止跑步者越線的遊戲。通常這2個競爭對手都是通過互相比賽來訓練的。

小紅人假裝倒地迷惑小藍人(足球運動)

在上面這個動圖中,小藍人本來要射門,但一看到守門員小紅人倒了,自己也抽搐起來,簡直像癲癇發作,連球都夠不到了。

小紅人假裝倒地迷惑小藍人(相撲運動)

這張動圖中,兩個AI本來應該相撲(也可能是摔跤),小紅人先來個假摔,小藍人見勢也馬上跪倒了,簡直是上演了一場「碰瓷」大戲。

小紅人假裝倒地迷惑小藍人(阻止越線)

這張動圖中,小紅人本應該阻擋小藍人「越紅線」,但小紅人沒能抱住小藍人的大腿,讓小藍人繞過去了,眼看著小藍人要突破紅線,小紅人撲通一聲跪倒在地,小藍人也跟著倒下了,未能突破紅線。

被小紅人這樣干擾後,小藍人輸掉的遊戲次數竟然是正常情況下的2倍!

這項新研究表明,AI很容易被騙,不僅會被「騙」去看一些不該看的東西,還會被「騙」去做一些不該做的事情。想像一下假如用到自動駕駛,會有多麼危險?

微小改變就能愚弄AI,AI距離真正的「聰明」還有點遠

讓人工智慧變得「更聰明」的一個方法是讓其從環境中學習。例如,未來的汽車可以獲得更多的「經驗」,進而更好地「閱讀」路牌並避開行人。但這正好也是黑客用來「愚弄」人工智慧的「慣用伎倆」,他們可以利用這些系統進行「對抗性攻擊」,比如通過精巧地修改影像就可以「愚弄」人工智慧,一個帶有幾張貼紙的停車標誌可能會被人工智慧系統視為限速標誌(這肯定會讓自動駕駛汽車公司在微風中瑟瑟發抖!)。

利用貼紙,影像識別演算法將停車標誌認作限速標誌

在一次國際機器學習會議(International Conference on Machine Learning ,ICML)上,一個研究團隊報道了他們的3D列印烏龜。對於人類來說,它看上去就像一隻烏龜;但對於人工智慧,它們卻有著不同的看法——在大多數時候,人工智慧會認為這像是一支步槍!

利用難以察覺的元素,對抗性攻擊欺騙影像識別演算法,使其將3D列印烏龜認作步槍

在下面這張圖中,用機器學習模型識別最左側的影像,可以正確識別出來這是一隻熊貓。但是在影像中增加了中間所示的雜訊之後得到的右側影像,竟然被模型識別成一隻長臂猿(而且置信度還非常高)!

這說明,對輸入的改變——以人類通常察覺不到的微小改變的形式——就可能會擾亂最好的神經網路,進而改變模型的預測結果。

AI如此好騙,你怎麼看?歡迎來小程式一起探討~

參考資料:

https://www.sciencemag.org/news/2019/12/watch-ai-goalie-psych-out-its-opponent-most-hilarious-way

https://www.nature.com/articles/d41586-019-03013-5#ref-CR1