醫療健康領域開發應用人工智慧時,如何避免性別偏見?

 

貼文日期:2024/06/06
貼文網址: https://www.facebook.com/TaiwanGIST/posts/1000209382111192
來源連結: Raising awareness of sex and gender bias in artificial intelligence and health


人工智慧(artificial intelligence,AI)技術日漸受到醫療健康領域的重用。不過,健康領域本身的性別落差(如研究中的女性代表性不足、相關措施未充分進行性別分析等)加以AI研發過程夾帶的性別偏見,很可能將婦女與多元性別人群邊緣化。

有鑑於此,西班牙Bioinfo4women(B4W)計畫與凱克薩(la Caixa)基金會曾於2021年舉辦「人工智慧與健康中的生理性別和社會性別偏見」系列會議詳加研討。最近,當地研究進一步針對會議結果彙整出解決辦法。請看以下介紹。


 
 








 
Image

#健康領域開發及應用人工智慧,有四個面向需要採取策略加強

研究團隊分析會議資料,彙整出健康領域開發應用AI技術的過程中,有四個尚待加強的面向,並逐一提出建議的解決策略,列舉如下:

.缺乏資料:擴大並整合資料收集的來源,顧及生理/社會性別、年齡、種族、社經地位等因素的交互影響。
.社會影響與覺察:針對STEM和健康領域專業人員進行培訓與教育,並推廣有關人類健康議題的生理/社會性別證據。
.AI偏見:研發團隊應強化跨領域與包容性,以整合不同觀點並避免偏見;AI訓練資料集以及演算法的品質與公平也須強化。
.管控監督:透過公共政策促進業界與學術界的合作,以挹注資金研究AI中的性別偏見。同儕審查刊物應要求相關研究進行性別分析。


#健康領域的各種相關對象也可以分別採取行動

若要針對健康領域中的AI技術研發提升性別敏感度,該領域的各種相關對象需要分別採取不同行動。研究團隊根據系列會議中的兩次「設計思維研討會」收集的資訊,整理出提供給不同對象的建議做法,列舉如下:

.AI從業者與學術機構:針對如何在研究與特定職業主題中納入生理/社會性別進行教育,並建立指標評估AI偏見。
.業界:在技術研究的設計、開發和評估中整合不同觀點,並提供員工有關訓練資料集品質與公平的相關參考資訊。
.民間社會:鼓勵民眾參與教育計畫、公開辯論等,以多元且平等的方式培養數位素養。
.政策制定者與政府:建立公共認證和監督,並制定可信賴的AI政策以應用於所有部門。


#透過修正知識與機構,促進所有人的健康結果

以上列舉的各種策略與做法,可說同時體現了性別化創新(Gendered Innovations)「修正知識」(在研究中納入生理/社會性別,以激發卓越的技術)以及「修正機構」(藉由改良研究組織結構,促進職場平等)兩項策略。

總而言之,一旦應用於醫療健康的AI技術能夠有效地考慮性別因素,勢必能夠提升此領域各類措施的品質,從而為婦女與多元性別者帶來更加公平與包容的保健服務,促進所有人的健康結果。


想知道更多相關內容嗎,快點來看看原文研究  https://tinyurl.com/3czfsawp


延伸閱讀:

性別化創新是什麼? https://tinyurl.com/2mvz9ubv

性別化創新案例研究-醫療科技 https://tinyurl.com/bdh4zy25




⇐前往較新一則貼文           前往較舊一則貼文⇒


科科性別已經有IG(@kekegender)了!在這裡 https://www.instagram.com/kekegender/

掌握國際間最新的性別化創新研究、活動與課程,請鎖定「性別化創新通訊新知」https://tinyurl.com/mr2xkcy6