fbpx

不夠智能的 AI 絕對是問題!Google 圖像處理系統誤把烏龜誤判成步槍

AI 可以說是科技發展的一個大潮流,從人工智能助理、無人駕駛車到 iPhone X 的人面辨識系統,所有地方都需要 Machine Learning 以至 Deep Learning 算法。但機械當然無法完美,就像最近 Google 旗下的人工智能辨識系統把烏龜認成了步槍,其實是發現在 3D 圖像辨認也存在很大的漏洞!

從 Labsix 的一個實驗當中,他們發現圖像辨識系統的一個漏洞。他們利用兩隻不同的 3D 打印烏龜進行測試,透過把烏龜上的花紋改變成所謂的 “Adversarial Image” ,藉此去改變 AI 的辨識與判斷。正常來說人類並不會看得那麼仔細,但 AI 會因為光暗、圖樣去辨識事物,而這是影響 AI 的一個有效方式。

如果能夠影響在其他方面,代表智能駕駛、無人車都可以被某些圖像影響,這會為人們帶來危險,更可怕的是當電腦首次「認得」這個圖像之後,把烏龜移到不同角度 AI 都會自動「修補」缺少的地方,代表即使把 3D 模型改到多個角度,仍然可以影響 AI 判斷。

整個研究是由 MIT 學生組仍的 labsix 進行,他們亦在網上公佈的完整的報告和影片。又整個研究他們是針對 Google 自家的一個圖像辨識系統 Inception V3 ,他們沒有正面回應事件,但發言人提到他們已經定立不同的方針去面對 Adversarial Attacks 等嘗識誤導人工智能的手法。

如果這次說 Google 的 AI 算法有重大問題,似乎是有點不公平的。畢竟 Labsix 是針對 Google 的算法進行挑戰,希望找出漏洞來。而從影片我們亦可以看到並不是所有的角度都能成功愚弄 Google 的 AI (即使大部份角度可以),但他們的確指出了一點很重要的事情。

任何系統都是可以破解的,也會不斷被人為挑戰,除非破解它是沒有利益的吧!

引用來源:The Verge

發表迴響

你的電子郵件位址並不會被公開。 必要欄位標記為 *

限制時效已用盡。請重新載入驗證碼。