基於 AI 的影像辨識是當前相當廣泛的應用,不過畢竟當前的技術難以 100% 正確區分性別等,難免發生性別判讀錯誤的情況,對一些反應比較激烈的族群,也容易踩到他們的雷; Google 為了避免性別判讀造成如性別歧視等爭議,決定在新版的 Google Cloud Vision API 工具取消對照片辨識當中的性別標籤,全部改為以"人物"標籤。
根據 Business Insider 指出, Google 針對 Cloud Vision API 的開發者發出通知,表示未來將不再為照片分析加入性別標籤,避免 AI 判讀灌輸偏見; Google 的說法是由於無法僅透過外觀正確判讀性別,不該以二元方式,故決定刪除性別標籤,以符合 Google 提出的人工智慧原則的第二項:避免造成或是加強不公平的偏見。
當前以基於機器視覺的 AI 辨識仍存在許多問題,除了 AI 邏輯以外,感測器(相機)輸出的影像清晰度、對比、細節等也會影響 AI 進行影像判斷,例如白種人的臉部辨識成功率就高於有色人種,更不用說 Google 的 AI 影像辨識也曾發生把黑人判斷成大猩猩的荒謬錯誤,雖然 Google 事後修正了這項錯誤,但相似的情況仍層出不窮。
Google 在 2018 年由於協助五角大廈發展無人機一事造成員工反彈,故 Google 在當時發表人工智慧原則,包括允諾不將人工智慧用於發展武器,以及列舉許多關於人工智慧的道德準則,藉此減少員工的不滿。
雖然 Google 的舉措看似積極消弭 AI 造成的偏見,不過仍有少數人持反對意見,當 Google 邀請認為受到影響的開發者在論壇上討論,有一位開發者抱怨 Google 此舉是由於政治正確,他認為如果多半的情況下性別辨識是正確且接近人類的判斷力(等同指出人類也無法 100% 正確以視覺分別男女)為何不能使用 AI 判斷,並指出他的公司將改用其它仍可提供性別標籤的相似服務。
7 則回應