【果言科技】5 個人工智能 (AI) 的偏見

當你聯想到機器的時候,你會用甚麼的形容詞去形容呢? 冷冰冰? 公平公正不偏不倚? 但是人工智能(AI)真的是不偏不倚嗎? 其實很多的AI 在現實中都存有一些偏見需耍我們去明白。令往後設計一些AI智能系統的時候能夠避免這些潛在的問題。

robot-blinders-alt-1

  1. 數據上的偏見

當一個機器開始學習的時候,他們得出的答案其實都是根據AI所接收到的數據去決定。但問題是當AI擁有大量的數據的時候便會做成一些偏見。然而這種偏見已經出現在一些深度學習之中。就好像最近Nikon 的面部識別軟件中,軟件將亞洲人的面孔與HP的皮膚問題出現了混淆,這正正說明了AI 在數據上出現了一些偏見。除了面部識別的問題外,AI 用於分析犯罪模式等的問題的時候也可能出現一些偏見而造成一些負面的影響。這都是一個相當大的問題需要我們去面對。

  1. 互動上的偏見

雖然有很多的系統的學習進程是通過例子進行學習;但是有些的系統則是利用交互的方式來學習 (人類與系統之間的互動)。而在這種交互方式中令系統與系統之間可能會交換了一些偏見。

就好像微軟的Tay ,他的學習主要是與用戶的互動之間學習。但Tay 受到一群用戶的影響,學會了種族主義並發出一些攻擊性的言論。很可惜地,Tay 推出24小時之後微軟便以種族主義的問題為由關閉了Tay。我們可以從是次Tay 的事件中看出,機器學習的時候其實都會學習到一些壞的偏見。

不過,換個角度來說,如果我們找來一些人類去監察這些智能系統又可不可行呢? 不可行。因為我們從Tay 事件中學懂人與系統之間的互動是會帶來偏見的。

  1. 個人化上的偏見

有時候,一些個人化的系統亦可能會產生出一些偏見。就好像Facebook,他們是利用用家的數據去分析並獲取用家的想法以個人化用家的內容。但這樣做就會導致大量的訊息向著用戶傾斜。由於 Facebook 已經學習了用家的想法,他們能夠自動為用家剷除一些用家沒有興趣的內容,這又會做成另一種的偏見。

  1. 相似度上的偏見

有時候有些偏見可能是系統自己製造出來的。例如Google 利用顧用戶的搜尋去提供一些Google News 。其實 Google 現時探用的這種的手法正正就好像 Facebook 的個人化設計般。當然,這種的方法牽涉到的是缺乏編輯控制的問題。但在現時資訊科技的世界中,相似度在一些針對決斷的時候佔下了一大席位,可謂十分重要。所以相似度上的偏見現時已經慢慢被接受下來,特別在企業之中。

  1. 上的偏見

有時候有些系統是特別針對一些商業用途去製造,但是往往可能出現了一些偏見是完全被忽視的。

例如一個系統是為用戶提供一些工作的,系統會從用戶按下工作描述中收錢,這亦是這個系統的目標。但是,人們使用這個系統的時候往往點擊一些適合自己的工作。例如一些婦女選擇工作的時候會選擇一些標籤為「護理」而非「醫療技術人員」的工作。因此,這樣會令不小的機器會出現了一些目標上的偏見。

最後,其實這些智能系統在製造出來的時候是客觀的,但是經過很多不同的原因之後會令到這些智能系統產生偏見。但是,當我們去理解偏見本身的問題和根源的時候,其實我們都會有方法去避免他們。我們相信,我們並不能夠去製造一個完全客觀的系統,但是至少我們能夠減少偏見。

 

資料來源: TechCrunch

發表迴響

你的電子郵件位址並不會被公開。 必要欄位標記為 *

限制時效已用盡。請重新載入驗證碼。