Gate 廣場創作者新春激勵正式開啟,發帖解鎖 $60,000 豪華獎池
如何參與:
報名活動表單:https://www.gate.com/questionnaire/7315
使用廣場任意發帖小工具,搭配文字發布內容即可
豐厚獎勵一覽:
發帖即可可瓜分 $25,000 獎池
10 位幸運用戶:獲得 1 GT + Gate 鸭舌帽
Top 發帖獎勵:發帖與互動越多,排名越高,贏取 Gate 新年周邊、Gate 雙肩包等好禮
新手專屬福利:首帖即得 $50 獎勵,繼續發帖还能瓜分 $10,000 新手獎池
活動時間:2026 年 1 月 8 日 16:00 – 1 月 26 日 24:00(UTC+8)
詳情:https://www.gate.com/announcements/article/49112
研究揭示了人工智慧模型對方言的偏見 - ForkLog:加密貨幣、人工智慧、奇點、未來
大型語言模型對方言持有偏見,將負面刻板印象歸於使用方言的人。德國和美國的科學家得出這樣的結論,DW報導
約翰內斯·古騰堡大學的分析顯示,十個測試模型,包括ChatGPT-5 mini和Llama 3.1,將使用德國方言的使用者(巴伐利亞、科隆)描述為「未受教育」、「在農場工作」和「易怒」。
當明確指出是方言時,偏見進一步加劇。
其他案例
科學家在全球範圍內也觀察到類似問題。2024年,加州大學伯克利分校的一項研究比較了ChatGPT對不同英語方言(印度、愛爾蘭、尼日利亞)的回答。
結果顯示,該聊天機器人在回答這些方言時,表現出更強烈的刻板印象、貶低內容和居高臨下的語氣,與使用標準美式或英式英語相比。
美國康奈爾大學計算機科學系的研究生艾瑪·哈維稱對方言的偏見「具有重要性且令人擔憂」。
2025年夏天,她和同事還發現,亞馬遜購物助手Rufus在回答使用非標準英語的非裔美國人時,給出模糊甚至錯誤的回答。如果請求中有錯誤,模型會粗魯回應。
另一個明顯的神經網絡偏見例子是來自印度的求職者,他用英文向ChatGPT檢查履歷,結果聊天機器人將他的姓氏改成與較高階層相關的姓氏。
然而,危機不僅限於偏見——一些模型根本無法辨識方言。例如,2023年7月,英國德比市議會的AI助手(未能辨識電台主持人在直播中使用的方言詞彙,如mardy)「愛抱怨的人」(和duck)「親愛的」(。
怎麼辦?
問題不在於AI模型本身,而在於它們的訓練方式。聊天機器人從互聯網上讀取大量文本,然後基於這些資料生成回答。
她同時強調,這項技術具有優勢:
一些科學家建議,為特定方言打造定制化模型作為一個優勢。2024年8月,Acree AI已推出Arcee-Meraj模型,支持多種阿拉伯方言。
霍爾特曼表示,隨著新型、更適應的LLM出現,可以將AI「看作不是方言的敵人,而是一個不完美但可以改進的工具」。
提醒一下,《經濟學人》的記者曾警告過AI玩具對兒童心理的風險。