語音助理的下一步:納入性別視野,更具多元包容性!


貼文日期:2021/12/03
貼文網址:https://www.facebook.com/TaiwanGIST/posts/3124489357811629
來源連結:性別化創新研究案例「虛擬助理與聊天機器人」 


對話式的人工智慧科技已逐漸普及於人們的日常,例如像是虛擬語音助理和智慧客服、聊天機器人等應用。然而,其中卻也在性別面向上引發一些爭議。

#過於委婉的語音助理

語音助理經常被賦予女性化的名字和聲音,但一項2019年針對Siri、Alexa、Cortana和Google助理等語音助的研究指出,這些被女性化的語音助理在面對言語上的騷擾(通常帶有性意涵或者辱罵字眼)時,往往會以帶有歉意、顧左右而言他、甚至語帶曖昧的方式來回應。

學者認為,面對言語騷擾而不會反擊的女性化語音助理,不僅強化了「在工作崗位上女性的害羞與順從」的刻板印象,同時也有將現實生活中的騷擾行為合理化的可能。

#容易會錯意的語音助理

另一方面,語音助理也可能會因為不理解非主流族群文化及語言脈絡,而誤解對話內容。例如,變裝皇后常使用「bitch(小賤人)」相互稱呼,這是該族群表現親切的方法之一,亦帶有翻轉罵名之意,但這種用法常常會被演算法視為仇恨言論而過濾掉。此外,非裔美國人在言談中夾雜粗話的用語習慣,也經常被系統誤判和刪除。

#納入性別視野,解決方案實施中

幸好,許多研發對話式人工智慧技術的企業都已關注到這個議題,正嘗試修改人工智慧的演算法並擴充訓練資料庫,以降低語音助理複製刻板印象的情況。此外,亦有團隊研發出無性別人工智慧聲音「Q」,期望能為語音助理增添可行的性別中立選項。

未來,人們將會更常與機器人(或人工智慧)對話,若研發者能在設計過程中納入性別視野,將會使科技產品更具包容性、更符合每一位使用者的需求,同時也能讓這個社會更向平等邁進!


想知道更多有關虛擬助理和聊天機器人的性別化創新研究案例嗎?快點來看看。


延伸閱讀:


───── 
追蹤科科性別了解科研領域中的性別議題


 ⇐前往較新一則貼文           前往較舊一則貼文⇒