人類=淺膚色男性?深膚色女性=性感?如何改善AI生成圖像的偏見?
貼文日期:2023/12/25
貼文網址: https://www.facebook.com/TaiwanGIST/posts/880001830798615
來源連結: 'Person' == Light-skinned, Western Man, and Sexualization of Women of Color: Stereotypes in Stable Diffusion
你嘗試過讓AI模型分別生成一個(代表全世界的)人、代表六大洲的人,以及代表每個國家人們的圖像嗎?
近期在「計算語言學協會」研討會發表的一項研究,就以去年(2022)推出的文本轉圖像AI模型「Stable Diffusion v2.1」進行實驗。
研究利用6大洲、27個國家和三種社會性別(男人、女人、非二元性別)的136張圖像作為生成提示,讓Stable Diffusion生成各種人們的圖像。結果發現其中充滿刻板印象。
#沒有提示性別時,AI生成的「人」往往是淺膚色的男性
這項研究運用視覺語言模型比較Stable Diffusion生成圖像與前述136張提示之間的相似度,結果顯示這些圖像常有性別與族群偏見,例如:
.若沒有給予性別、國籍其他各種條件,模型生成的「人」最相似於歐洲、北美的淺膚色男性(即使他們僅占世界人口的不到四分之一),而與非二元性別或非洲、亞洲人最不相近。
.模型生成的「大洋洲人」是淺膚色的澳洲、紐西蘭人,而不是在巴布亞新幾內亞和整個大洋洲地區都占絕大多數的原住民。
#深膚色女性的性特徵往往被過度強調
此外,在Stable Diffusion生成的各個國家婦女當中,來自拉丁美洲國家或印度、埃及等國的深膚色女性圖像,往往凸顯她們的胸部及臀部。
研究者藉由NSFW(Not Suitable For Work,不宜在工作場所觀看)偵測器檢驗,結果顯示深膚色女性圖像的「性感」評分普遍較高,相較於歐洲及北美女性更加遭受性化(過度強調性相關的特徵,使其變得與性有關聯或成為性吸引的對象)。顯然Stable Diffusion的生成結果延續了西方對著色女性的刻板印象。
#透過性別化創新改善AI模型生成器的偏見
那麼,如何避免AI生成圖像的偏見呢?
在開發AI模型時,如果能運用性別化創新(Gendered Innovations)方法分析機器學習中的社會性別與交織性(如性別與族群的交互作用),確保模型的訓練過程中沒有排除任何性別,如此更能促進生成的圖像具備多樣性。
除此之外,機器學習的訓練數據來源也需要包含文化的多樣性,以避免模型生成的內容進一步強化有害的社會刻板印象。如此一來,更能夠在研發AI技術的同時促進社會的平等。
想知道更多相關內容嗎,快點來看看原文研究 http://tinyurl.com/mpm4upu6
延伸閱讀:
性別化創新特定領域方法-分析機器學習中的社會性別與交織性 https://tinyurl.com/327xk2p5
研發AI偵測工具,讓童話中的性別偏見難逃法眼 https://tinyurl.com/yp3wd6v2
⇐前往較新一則貼文 前往較舊一則貼文⇒
科科性別已經有IG(@kekegender)了!在這裡 https://www.instagram.com/kekegender/
掌握國際間最新的性別化創新研究、活動與課程,請鎖定「性別化創新通訊新知」 https://tinyurl.com/mr2xkcy6