AI歧視誰之過? 

 
貼文日期:2019/05/15
貼文網址:https://www.facebook.com/TaiwanGIST/posts/2352867404973832
來源連結:性別化創新中文網「機器學習:分析社會性別」
 

近年來,AI(人工智慧)被指控性別、種族歧視的事件層出不窮,Google、Amazon等企業皆曾在AI的研發應用上遇到AI歧視的問題。

Amazon自家研發的AI履歷篩選機制,被發現在某些技術性職位的應徵上,會對女性的履歷予以扣分,而歷經3年的修正,Amazon仍在2018年宣布中止這項計畫。

因為即使已經針對AI系統中的性別偏見進行修正,也無法保證不會再出現其他的歧視問題。

但AI「本人」則表示非常無辜:我也只是照著演算法去做而已阿~~~!?

究竟,身為人類設計出的人工智慧系統,是如何一步步走入偏見和歧視的陷阱之中呢?

#讓我們繼續看下去

其實,人工智慧的運作,一部份是靠著 #機器學習的方式,透過各種資料庫的數據,來進行演算法在分析、選擇上的訓練。

而根據需求所設計的演算法,則會在資料庫的基礎上,作出相對應的判斷。

例如,Amazon將其公司10年來的聘用紀錄作為訓練AI的資料庫數據,但因為獲聘的多為男性,於是AI便透過演算法直接反映了這個狀況,造成對女性的歧視。

#犯人就在我們之中!

原來,因為使用的資料庫中原本就存在著社會偏見,透過機器學習,便直接導致了AI對各種社會偏見的複製,例如對性別、種族的偏見。

換言之,只要機器學習是根據社會中已存在的資料數據進行訓練,那麼,只要社會存有偏見,機器學習就會讓AI重現這些偏見。

#解決之道

針對這樣的問題,科學家們除了重新打造能避免偏見產生的訓練資料庫,同時也進行研發能偵測、移除偏見的演算法設計,期望能將AI對社會偏見的再現降到最低。

而AI的社會再現力,反倒也能讓我們引以為戒,點出其中的不平等處,提醒我們要隨時對社會上的偏見保持警覺!

想知道更多有關AI機器學習的 #性別化創新案例嗎,快點進來看看!


#GenderedInnovations
#性別與工程
#AI中的性別偏見
 

延伸閱讀:
什麼是「性別化創新」? 
當 AI 也開始戴起有色眼鏡會怎樣? 
AI能夠幫助我們去除偏見嗎? 
AI偏見不只一樁!


 ⇐前往較新一則貼文           前往較舊一則貼文⇒