人工智能的性別偏見
人工智能 (AI) 愈來愈普及,對我們日常生活已產生頗大的影響,從網路廣告﹑社交媒體的內容推送﹑虛擬助理﹑網絡搜尋引擎﹑圖像生成系統等,都運用到AI 演算法及大數據。許多應用程式通過分析用戶的偏好來定製內容,然而,這些內容的推薦過程中存在不少的偏見,包括性別上的偏見。
國際非政府組織 全球見證 (Global Witness)於2023年3月及4月,在Facebook 發布了不同的職位空缺廣告。招聘廣告在多個國家刊登,而在法國,看到幼兒園老師職位廣告的人中有 93% 是女性,而看到技工職位廣告的受眾中有 94% 是男性;在荷蘭,看到接待員職位廣告的人中有 97% 是女性,而看到廚師職位廣告的受眾中有 79% 是男性。
有網民發現社交平台 Instagram會根據用戶的性別,顯示不同的留言。在一則關於「女性抱怨男朋友遲到」的影片下,女性用戶看到的留言傾向支持女方,如 「他不尊重你的時間,分手吧!」﹑「他可以被取代」 ﹑「我不喜歡他」 及「他根本不尊重女生的時間!」等。相反,男性用戶則看到傾向支持男方的留言, 如「別整天等他,自己找點事做吧。」 ﹑「抱歉喔,我就是那個一起打高爾夫的朋友。」 及「放過他吧,他正開心。」等。
兩位《衛報》記者利用AI工具,分析了數百張男性與女性的相片,當中包括他們穿著內衣、運動服裝或正接受醫療檢查而露出部份身體的照片,發現AI在標籤這些圖片時,傾向把女性的照片標示為「性感」或「具有性暗示」,而類似的男性照片則不被標籤。例如女性穿著瑜伽褲,露出部分肌膚的照片,可能會被標記為「過於性感」,而受影子禁令 (shadowbanned)* 限制,即該內容雖然不被移除,但內容的可見度會受限制。然而,男性赤膊的照片卻不會被如此評定。
*影子禁令 /秘密封鎖 (shadowbanned)是一種審查網上社交媒體用戶的方法。例如被施行影子禁令的用戶在網誌或社交媒體發放帖文,其他用戶不會看到該帖文;或是被影子禁令的用戶發放的帖文,會被故意壓低瀏覽量,因而無法成為熱門帖文。由於被影子禁令的用戶不會看出自己已被封鎖,這種審查方式比刪帖或禁止發文較難被發現。
延伸閱讀:
Global Witness- New evidence of Facebook’s sexist algorithm
https://www.globalwitness.org/……/new-evidence-of……/
女人迷- IG同篇貼文底下 不同性別會看到不同的留言?小心AI正在強化你的無意識偏見
https://womany.net/read/article/33155
The Guardian- ‘There is no standard’: investigation finds AI algorithms objectify women’s bodies
https://www.theguardian.com/……/biased-ai……
Centre for International Governance Innovation- Generative AI Tools Are Perpetuating Harmful Gender Stereotypes




