fbpx

研究人員發現:面部識別軟件充滿歧視,偏好於白人

近日,麻省理工學院媒體實驗室的一項最新研究結果證實了:面部識別技術因受制於數據及算法創建等條件,而存在一定程度的偏差結果。

麻省理工學院媒體實驗室研究員Joy Buolamwini利用政治家的面孔,建立了一個有1,270個面孔的數據庫(當中也包括了相當數目的女性)。然後,Buolamwini測試了三種面部識別系統的準確性:微軟,IBM和Megvii的中國製造。測試結果顯示,性別認同的不準確性取決於一個人的膚色。

研究結果顯示:淺膚色的男性中,被錯認性別的比例為最低,只有不到1%左右;淺膚色的女性中被錯認的比例則為7%。但有高達12%及35%的深膚色男性及女性被錯認性別。

換句話說,男性比女性受試者能更準確地被辨認;而膚色較淺的比膚色較深的受試者,能更準確地被辨別和歸類。

事實上,面部識別技術已經不是第一次被證明是不準確的,但越來越多證據表明,這技術還需要多樣化的數據,以及多樣性的創建和部署這些技術的人員,才能使算法更準確地識別個人,而非針對種族或其他的因素。

雖然面部識別技術現時還未達至成熟,但相信這類型的技術缺憾會很快被修補好的。

資料來源:Theverge

發表迴響

你的電子郵件位址並不會被公開。 必要欄位標記為 *

限制時效已用盡。請重新載入驗證碼。