AI歧視誰之過?
貼文日期:2019/05/15
貼文網址:https://www.facebook.com/TaiwanGIST/posts/2352867404973832
來源連結:性別化創新中文網「機器學習:分析社會性別」
近年來,AI(人工智慧)被指控性別、種族歧視的事件層出不窮,Google、Amazon等企業皆曾在AI的研發應用上遇到AI歧視的問題。
Amazon自家研發的AI履歷篩選機制,被發現在某些技術性職位的應徵上,會對女性的履歷予以扣分,而歷經3年的修正,Amazon仍在2018年宣布中止這項計畫。
因為即使已經針對AI系統中的性別偏見進行修正,也無法保證不會再出現其他的歧視問題。
但AI「本人」則表示非常無辜:我也只是照著演算法去做而已阿~~~!?
究竟,身為人類設計出的人工智慧系統,是如何一步步走入偏見和歧視的陷阱之中呢?
#讓我們繼續看下去
其實,人工智慧的運作,一部份是靠著 #機器學習的方式,透過各種資料庫的數據,來進行演算法在分析、選擇上的訓練。
而根據需求所設計的演算法,則會在資料庫的基礎上,作出相對應的判斷。
例如,Amazon將其公司10年來的聘用紀錄作為訓練AI的資料庫數據,但因為獲聘的多為男性,於是AI便透過演算法直接反映了這個狀況,造成對女性的歧視。
#犯人就在我們之中!
原來,因為使用的資料庫中原本就存在著社會偏見,透過機器學習,便直接導致了AI對各種社會偏見的複製,例如對性別、種族的偏見。
換言之,只要機器學習是根據社會中已存在的資料數據進行訓練,那麼,只要社會存有偏見,機器學習就會讓AI重現這些偏見。
#解決之道
針對這樣的問題,科學家們除了重新打造能避免偏見產生的訓練資料庫,同時也進行研發能偵測、移除偏見的演算法設計,期望能將AI對社會偏見的再現降到最低。
而AI的社會再現力,反倒也能讓我們引以為戒,點出其中的不平等處,提醒我們要隨時對社會上的偏見保持警覺!
想知道更多有關AI機器學習的 #性別化創新案例嗎,快點進來看看!
#GenderedInnovations
#性別與工程
#AI中的性別偏見
延伸閱讀:
什麼是「性別化創新」?
當 AI 也開始戴起有色眼鏡會怎樣?
AI能夠幫助我們去除偏見嗎?
AI偏見不只一樁!