Gate 广場「創作者認證激勵計畫」優質創作者持續招募中!
立即加入,發布優質內容,參與活動即可瓜分月度 $10,000+ 創作獎勵!
認證申請步驟:
1️⃣ 打開 App 首頁底部【廣場】 → 點擊右上角頭像進入個人首頁
2️⃣ 點擊頭像右下角【申請認證】,提交申請等待審核
立即報名:https://www.gate.com/questionnaire/7159
豪華代幣獎池、Gate 精美周邊、流量曝光等超過 $10,000 的豐厚獎勵等你拿!
活動詳情:https://www.gate.com/announcements/article/47889
研究揭示了人工智慧模型對方言的偏見 - ForkLog:加密貨幣、人工智慧、奇點、未來
大型語言模型對方言持有偏見,將負面刻板印象歸於使用方言的人。德國和美國的科學家得出這樣的結論,DW報導
約翰內斯·古騰堡大學的分析顯示,十個測試模型,包括ChatGPT-5 mini和Llama 3.1,將使用德國方言的使用者(巴伐利亞、科隆)描述為「未受教育」、「在農場工作」和「易怒」。
當明確指出是方言時,偏見進一步加劇。
其他案例
科學家在全球範圍內也觀察到類似問題。2024年,加州大學伯克利分校的一項研究比較了ChatGPT對不同英語方言(印度、愛爾蘭、尼日利亞)的回答。
結果顯示,該聊天機器人在回答這些方言時,表現出更強烈的刻板印象、貶低內容和居高臨下的語氣,與使用標準美式或英式英語相比。
美國康奈爾大學計算機科學系的研究生艾瑪·哈維稱對方言的偏見「具有重要性且令人擔憂」。
2025年夏天,她和同事還發現,亞馬遜購物助手Rufus在回答使用非標準英語的非裔美國人時,給出模糊甚至錯誤的回答。如果請求中有錯誤,模型會粗魯回應。
另一個明顯的神經網絡偏見例子是來自印度的求職者,他用英文向ChatGPT檢查履歷,結果聊天機器人將他的姓氏改成與較高階層相關的姓氏。
然而,危機不僅限於偏見——一些模型根本無法辨識方言。例如,2023年7月,英國德比市議會的AI助手(未能辨識電台主持人在直播中使用的方言詞彙,如mardy)「愛抱怨的人」(和duck)「親愛的」(。
怎麼辦?
問題不在於AI模型本身,而在於它們的訓練方式。聊天機器人從互聯網上讀取大量文本,然後基於這些資料生成回答。
她同時強調,這項技術具有優勢:
一些科學家建議,為特定方言打造定制化模型作為一個優勢。2024年8月,Acree AI已推出Arcee-Meraj模型,支持多種阿拉伯方言。
霍爾特曼表示,隨著新型、更適應的LLM出現,可以將AI「看作不是方言的敵人,而是一個不完美但可以改進的工具」。
提醒一下,《經濟學人》的記者曾警告過AI玩具對兒童心理的風險。