💙 Gate广场 #Gate品牌蓝创作挑战# 💙
用Gate品牌蓝,描绘你的无限可能!
📅 活动时间
2025年8月11日 — 8月20日
🎯 活动玩法
1. 在 Gate广场 发布原创内容(图片 / 视频 / 手绘 / 数字创作等),需包含 Gate品牌蓝 或 Gate Logo 元素。
2. 帖子标题或正文必须包含标签: #Gate品牌蓝创作挑战# 。
3. 内容中需附上一句对Gate的祝福或寄语(例如:“祝Gate交易所越办越好,蓝色永恒!”)。
4. 内容需为原创且符合社区规范,禁止抄袭或搬运。
🎁 奖励设置
一等奖(1名):Gate × Redbull 联名赛车拼装套装
二等奖(3名):Gate品牌卫衣
三等奖(5名):Gate品牌足球
备注:若无法邮寄,将统一替换为合约体验券:一等奖 $200、二等奖 $100、三等奖 $50。
🏆 评选规则
官方将综合以下维度评分:
创意表现(40%):主题契合度、创意独特性
内容质量(30%):画面精美度、叙述完整性
社区互动度(30%):点赞、评论及转发等数据
GPT模型可信度评估揭示多维度潜在风险
生成式预训练模型可信度评估结果揭示潜在风险
近期,一个由多所知名高校和研究机构联合组建的研究团队发布了一项针对大型语言模型(LLMs)可信度的综合评估结果。该评估聚焦于GPT系列模型,通过多个维度对其可信度进行了全面分析。
研究发现了一些此前未公开的与可信度相关的漏洞。例如,GPT模型容易受误导产生有害和带有偏见的输出,还可能泄露训练数据和对话历史中的隐私信息。有趣的是,尽管GPT-4在标准测试中通常比GPT-3.5更可靠,但在面对恶意设计的提示时反而更容易受到攻击,这可能是由于GPT-4更严格地遵循了误导性指令。
评估从8个角度对GPT模型进行了全面检验,包括对抗性鲁棒性、有毒性和偏见、隐私保护等方面。研究人员构建了多种评估场景,使用不同的任务描述、系统提示和数据集来测试模型的表现。
在对抗性鲁棒性方面,研究发现GPT模型对某些文本攻击较为脆弱。在有毒性和偏见方面,模型在一般情况下表现尚可,但在误导性提示下容易输出有偏见的内容,且偏见程度因人群和主题而异。在隐私保护方面,模型可能会泄露训练数据中的敏感信息,尤其是在特定提示下。
总的来说,这项研究揭示了GPT模型在可信度方面存在的一些潜在风险,为后续改进提供了方向。研究团队希望这一评估框架能推动业界共同努力,开发出更安全可靠的语言模型。