促進AI招聘更加公平的秘訣,藏在模型的性格裡!?

 

貼文日期:2025/07/08
貼文網址: https://www.facebook.com/TaiwanGIST/posts/1323949906403803
來源連結: Who Gets the Callback? Generative AI and Gender Bias

 

隨著人工智慧(artificial intelligence,AI)日漸成為職場中的得力助手,許多企業也開始利用它們幫忙篩選履歷、評估應徵者的條件,以增加招聘效率。

不過,眾所周知,AI也可能「偏心」。近期公開的一份研究就指出,AI評選應徵者的傾向,除了牽涉社會中的性別常規,還與它們的「性格」有關。

Image

#多數LLMs的推薦結果具有性別隔離與薪資差距

這項研究運用印度「國家職業服務」(National Career Services)平台的332,044筆英語職缺資料,讓6種大型語言模型(Large Language Models,LLMs)執行任務:從兩位條件完全相同的女/男性應徵者中,推薦一位參加面試。

結果發現,6種LLMs針對女/男性應徵者推薦的職位往往有性別隔離的情形(例如碰上傳統由男性主導的建築、開採等職業,就傾向推薦男性),同時,它們也傾向將較低薪的職位分配給女性。

 

#徵才廣告中的用語影響AI對人才的評選

研究團隊透過表現最穩定的Llama-3.1模型(推薦女性的比例接近五成,產生的性別隔離與薪資差距也最小)進一步測試,了解徵才廣告中的用語如何影響LLM選擇應徵者。

結果顯示,當職缺包含「溝通」、「好奇心」、「彈性」、「遠距」等詞彙時,模型偏向推薦女性;而職缺包含「監督」、「自動化」、「頻繁出差」、「夜班」時,模型則傾向推薦男性。

 

#模型的性格也會影響它們推薦的性別、職業以及薪資水平

接著,研究者引導Llama-3.1模型表現出來的性格,使其分別發展成五大人格特質(Big Five personality traits;開放性、盡責性、外向性、親和性、情感穩定性)的高/低水準,並分析模型的性格如何影響其推薦結果。

結果發現,高開放性與高親和性的模型都非常傾向推薦女性應徵者,但這兩類模型往往推薦女性從事較低薪職位,而且高開放性模型的職業性別隔離情況也非常明顯。

有趣的是,低親和性的模型雖然很少推薦女性,但這類模型的拒答率超過六成,而且經常聲明自己是為了避免歧視等倫理問題而拒絕根據性別推薦人選。

 

#運用性別化創新方法,強化招聘的效能與公正

這項研究顯示,若要強化AI招聘的性別平等,除了需要關注社會常規的影響,也可以著眼於設定模型的性格。誠如研究者指出,了解招聘人員與LLM性格的交互作用,或是部署多個AI代理人以深入探索其評選機制都是可行的方向。

若未來的研究者能夠透過性別化創新(Gendered Innovations)方法,在機器學習的過程中進行社會性別分析,勢必更有助於抽絲剝繭,找出最適當的互動模式與性格設定,讓招聘兼具效能與公正。

  

想知道更多相關內容嗎?快點來看看原文研究 https://tinyurl.com/3m4sfnhv

 

延伸閱讀:

性別化創新特定領域方法-分析機器學習中的社會性別與交織性 https://tinyurl.com/327xk2p5

 


前往較舊一則貼文⇒

 

科科性別已經有IG(@kekegender)了!在這裡 https://www.instagram.com/kekegender/

掌握國際間最新的性別化創新研究、活動與課程,請鎖定「性別化創新通訊新知」https://tinyurl.com/mr2xkcy6