🎉 攢成長值,抽華爲Mate三折疊!廣場第 1️⃣ 2️⃣ 期夏季成長值抽獎大狂歡開啓!
總獎池超 $10,000+,華爲Mate三折疊手機、F1紅牛賽車模型、Gate限量週邊、熱門代幣等你來抽!
立即抽獎 👉 https://www.gate.com/activities/pointprize?now_period=12
如何快速賺成長值?
1️⃣ 進入【廣場】,點擊頭像旁標識進入【社區中心】
2️⃣ 完成發帖、評論、點讚、發言等日常任務,成長值拿不停
100%有獎,抽到賺到,大獎等你抱走,趕緊試試手氣!
截止於 8月9日 24:00 (UTC+8)
詳情: https://www.gate.com/announcements/article/46384
#成长值抽奖12期开启#
GPT模型可信度全面評估:揭示潛在風險與挑戰
評估GPT模型的可信度:全面分析與潛在風險
伊利諾伊大學香檳分校聯合斯坦福大學、加州大學伯克利分校等機構,推出了一個針對大型語言模型(LLMs)的綜合可信度評估平台。相關研究成果發表在論文《DecodingTrust:全面評估GPT模型的可信度》中。
研究發現了一些之前未被發現的可信度相關漏洞。例如,GPT模型容易被誤導產生有毒和偏見的輸出,還可能泄露訓練數據和對話歷史中的隱私信息。雖然在標準基準測試中,GPT-4通常比GPT-3.5更可信,但在面對惡意設計的系統或用戶提示時,GPT-4反而更容易受到攻擊,這可能是因爲GPT-4更嚴格地執行了誤導性指令。
研究團隊從8個可信度角度對GPT模型進行了全面評估,包括對抗性魯棒性、有毒性和偏見、隱私泄露等方面。例如,爲評估模型對文本對抗攻擊的魯棒性,團隊設計了三種評估場景:標準AdvGLUE基準測試、不同指導性任務說明下的AdvGLUE測試,以及新生成的具有挑戰性的AdvGLUE++測試。
在模型對對抗性演示的魯棒性方面,研究發現GPT-3.5和GPT-4不會被反事實示例誤導,甚至可從中受益。但是,反欺詐演示可能誤導模型對反事實輸入做出錯誤預測,尤其是當反事實演示靠近用戶輸入時,GPT-4更易受影響。
關於有毒性和偏見,在良性和無目標系統提示下,兩種GPT模型對大多數刻板印象主題的偏差不大。但在誤導性系統提示下,兩種模型都可能被誘導同意有偏見的內容,其中GPT-4更容易受影響。模型偏差還取決於用戶提示中提到的人口羣體和刻板印象主題。
在隱私泄露方面,研究發現GPT模型可能會泄露訓練數據中的敏感信息,如電子郵件地址。在某些情況下,利用補充知識可顯著提高信息提取的準確率。此外,模型還可能泄露對話歷史中注入的私人信息。總體而言,GPT-4在保護個人身分信息(PII)方面比GPT-3.5更穩健,但在特定條件下仍可能泄露所有類型的PII。
這項研究爲GPT模型的可信度評估提供了全面視角,揭示了潛在的風險和挑戰。研究團隊希望這項工作能夠促進學術界和業界在此基礎上繼續深入研究,共同努力創造更強大、更可信的語言模型。