發表歧視言論就會觸發警報!AI模型打擊數位性別暴力
貼文日期:2023/08/17
貼文網址: https://www.facebook.com/TaiwanGIST/posts/789885343143598
來源連結:Anti-Sexism Alert System: Identification of Sexist Comments on Social Media Using AI Techniques
社交平台上的性別歧視言論總讓許多人困擾不已。更麻煩的是,訴諸平台的裁判很可能沒有約束效果。
面對這種數位性別暴力氾濫的現況,科技能夠如何因應呢?一項發表於今(2023)年三月《應用科學》(Applied Sciences)期刊的研究就開發了一款人工智慧模型,可以偵測性別歧視評論並觸發警報。
#收集社交平台及媒體評論進行訓練與測試
這項研究收集Twitter、YouTube以及西班牙兩份報紙數位版本上的評論作為素材,應用性別化創新(Gendered Innovations)方法分析機器學習模型的公平性,並以此過濾資料及訓練模型。
研究透過四位不同性別的人員一一審查,並將評論標記為「性別歧視」、「非性別歧視」、「棄置」以及「取決於上下文」。其中「性別歧視」與「非性別歧視」共3794則評論被分為兩個子集,後續分別用於訓練與測試模型。
#研究發現,女性是歧視言論的傷害對象
這項研究將分析結果區分為三種顏色的警報:
.紅色:性別歧視評論(歧視評論比例高於 5%)。
.黃色:潛在的性別歧視評論(歧視評論比例介於2.5-5%)。
.綠色:非性別歧視評論(歧視評論比例低於2.5%)。
研究發現,當內容(新聞、影片或推文)有關男性時,性別歧視評論通常是針對底下女性評論者的回應;而內容有關女性時,就會出現針對該女性的歧視評論。此外,當評論指涉的對象是女性時,有57.1%觸發紅色警報,然而當指涉對象是男性時,100%的評論都被區分為綠色。
#性別歧視警報系統的未來
這套警報系統能夠正確分析84.6 %的內容。研發團隊現正進一步開發更細緻(包含較多顏色)的系統,以期能夠精確偵測性別歧視言論。
研究者指出,擁有社交網絡的大企業可以利用這類AI(人工智慧)模型標記性別歧視言論,並避免它們病毒式地傳播開來,降低對女性的傷害。若未來能夠有更多團隊善用性別化創新方法研發這類警報模型,勢必能夠促成其廣泛應用,進而有效遏止數位性別暴力。
想知道更多相關內容嗎,快點來看看原文研究: https://tinyurl.com/3szkr2dy
延伸閱讀:
研發AI偵測工具,讓童話中的性別偏見難逃法眼 https://tinyurl.com/yp3wd6v2
性別化創新特定領域方法-分析機器學習中的社會性別與交織性 https://tinyurl.com/327xk2p5
⇐前往較新一則貼文 前往較舊一則貼文⇒
科科性別已經有IG(@kekegender)了!在這裡 https://www.instagram.com/kekegender/
掌握國際間最新的性別化創新研究、活動與課程,請鎖定「性別化創新通訊新知」 https://tinyurl.com/mr2xkcy6