機器的偏見:藏在演算法裡的歧視

 
貼文日期:2021/05/14
貼文網址:https://www.facebook.com/1645501069043806/posts/2968722013388365
來源連結:性別化創新研究案例「機器學習」


在科技蓬勃發展的現代,網站廣告推播、外語即時翻譯、人臉辨識等AI(人工智慧)應用技術已相當普遍,十多年前還是新穎名詞的大數據、演算法,如今已成為我們日常生活的基礎。

然而,不會受到情緒影響、給人感覺公正客觀的AI,其實也和人類一樣,可能會因為演算法的關係而推展出具性別或種族歧視的結論。

#數據中的偏見讓AI也學會了偏見

AI的運作一部份是靠著 #機器學習的方式,透過各種資料庫數據,進行演算法在分析和選擇上的訓練。然而,許多研究發現,AI會因為資料庫數據中的性別和種族偏見,而跟著做出帶有歧視的判斷。

以常見的機器學習方式 #詞向量(Word embedding) 為例,它會將詞彙轉換成向量數據,藉以類推出字詞之間的對應關係,例如「男人」對應「國王」、「女人」對應「皇后」。然而,這樣的學習方式卻也會類推出「男人」對應「醫師」、「女人」對應「護士」的結果,反而進一步強化了社會中的性別偏見。

#相機也有種族歧視

許多人都曾有在團體照中剛好被相機捕捉到眼睛半閉的經驗,為了解決這個問題,Nikon便曾在Coolpix S630相機的軟體設計中加入可以偵測眨眼的人臉辨識功能,若被拍攝對象在眨眼睛,相機便會給出「有人在眨眼睛嗎?」的提示。

這原本應是立意良善的設計,卻對亞裔使用者造成了不便:即便亞裔使用者已將眼睛張到最大了,這款Nikon相機卻總是會認為鏡頭中有人在眨眼睛,而不停地給出提醒。

#解決演算法偏見,讓社會更靠近公平一點

偏見和歧視源於社會對於性別或種族的預設觀念,而當AI機器學習使用的系統數據也源自社會時,AI便會在不知不覺中也複製了當前社會的偏見。

為了改善這個問題,科學家們透過打造專門訓練AI的數據集來避免偏見。此外,也可從源頭做起:在AI相關的研究中組織跨領域與多元社會背景的團隊、在程式設計課程中加入社會議題觀點,皆是不錯的解方。

如何讓世界更靠近公平一點?減少AI系統數據中隱含的偏見,並藉此機會細心地審視、察覺嵌藏在社會中的偏見,可能會是個好起點!


想知道更多有關AI機器學習的研究案例嗎?快點來看看。


延伸閱讀:
AI歧視誰之過? 
AI與偏見的距離?
如何用詞向量找出性別偏見?

─────
追蹤科科性別了解科研領域中的性別議題