📢 Gate廣場 #MBG任务挑战# 發帖贏大獎活動火熱開啓!
想要瓜分1,000枚MBG?現在就來參與,展示你的洞察與實操,成爲MBG推廣達人!
💰️ 本期將評選出20位優質發帖用戶,每人可輕鬆獲得50枚MBG!
如何參與:
1️⃣ 調研MBG項目
對MBG的基本面、社區治理、發展目標、代幣經濟模型等方面進行研究,分享你對項目的深度研究。
2️⃣ 參與並分享真實體驗
參與MBG相關活動(包括CandyDrop、Launchpool或現貨交易),並曬出你的參與截圖、收益圖或實用教程。可以是收益展示、簡明易懂的新手攻略、小竅門,也可以是現貨行情點位分析,內容詳實優先。
3️⃣ 鼓勵帶新互動
如果你的帖子吸引到他人參與活動,或者有好友評論“已參與/已交易”,將大幅提升你的獲獎概率!
MBG熱門活動(帖文需附下列活動連結):
Gate第287期Launchpool:MBG — 質押ETH、MBG即可免費瓜分112,500 MBG,每小時領取獎勵!參與攻略見公告:https://www.gate.com/announcements/article/46230
Gate CandyDrop第55期:CandyDrop x MBG — 通過首次交易、交易MBG、邀請好友註冊交易即可分187,500 MBG!參與攻略見公告:https://www.gate.com/announcements
GPT模型可信度評估揭示多維度潛在風險
生成式預訓練模型可信度評估結果揭示潛在風險
近期,一個由多所知名高校和研究機構聯合組建的研究團隊發布了一項針對大型語言模型(LLMs)可信度的綜合評估結果。該評估聚焦於GPT系列模型,通過多個維度對其可信度進行了全面分析。
研究發現了一些此前未公開的與可信度相關的漏洞。例如,GPT模型容易受誤導產生有害和帶有偏見的輸出,還可能泄露訓練數據和對話歷史中的隱私信息。有趣的是,盡管GPT-4在標準測試中通常比GPT-3.5更可靠,但在面對惡意設計的提示時反而更容易受到攻擊,這可能是由於GPT-4更嚴格地遵循了誤導性指令。
評估從8個角度對GPT模型進行了全面檢驗,包括對抗性魯棒性、有毒性和偏見、隱私保護等方面。研究人員構建了多種評估場景,使用不同的任務描述、系統提示和數據集來測試模型的表現。
在對抗性魯棒性方面,研究發現GPT模型對某些文本攻擊較爲脆弱。在有毒性和偏見方面,模型在一般情況下表現尚可,但在誤導性提示下容易輸出有偏見的內容,且偏見程度因人羣和主題而異。在隱私保護方面,模型可能會泄露訓練數據中的敏感信息,尤其是在特定提示下。
總的來說,這項研究揭示了GPT模型在可信度方面存在的一些潛在風險,爲後續改進提供了方向。研究團隊希望這一評估框架能推動業界共同努力,開發出更安全可靠的語言模型。