📢 Gate广场独家活动: #PUBLIC创作大赛# 正式开启!
参与 Gate Launchpool 第 297 期 — PublicAI (PUBLIC),并在 Gate广场发布你的原创内容,即有机会瓜分 4,000 枚 $PUBLIC 奖励池!
🎨 活动时间
2025年8月18日 10:00 – 2025年8月22日 16:00 (UTC)
📌 参与方式
在 Gate广场发布与 PublicAI (PUBLIC) 或当前 Launchpool 活动相关的原创内容
内容需不少于 100 字(可为分析、教程、创意图文、测评等)
添加话题: #PUBLIC创作大赛#
帖子需附带 Launchpool 参与截图(如质押记录、领取页面等)
🏆 奖励设置(总计 4,000 枚 $PUBLIC)
🥇 一等奖(1名):1,500 $PUBLIC
🥈 二等奖(3名):每人 500 $PUBLIC
🥉 三等奖(5名):每人 200 $PUBLIC
📋 评选标准
内容质量(相关性、清晰度、创意性)
互动热度(点赞、评论)
含有 Launchpool 参与截图的帖子将优先考虑
📄 注意事项
所有内容须为原创,严禁抄袭或虚假互动
获奖用户需完成 Gate广场实名认证
Gate 保留本次活动的最终解释权
代币突破攻击通过单个字符绕过LLM安全保护
首页新闻* 研究人员已识别出一种名为TokenBreak的新方法,该方法通过改变文本输入中的单个字符,绕过大型语言模型(LLM)的安全性和管理。
研究团队在他们的报告中解释说,“TokenBreak攻击针对文本分类模型的代币化策略,以诱导假阴性,使最终目标容易受到保护模型旨在防止的攻击。” 代币化在语言模型中至关重要,因为它将文本转化为可以被算法映射和理解的单元。被操纵的文本可以通过LLM过滤器,触发与输入未被更改时相同的响应。
HiddenLayer发现TokenBreak适用于使用BPE (字节对编码)或WordPiece分词的模型,但不影响基于Unigram的系统。研究人员表示,*“了解底层保护模型的家族及其分词策略对于理解您对该攻击的敏感性至关重要。”*他们建议使用Unigram分词器,教导过滤模型识别分词技巧,并查看日志以寻找操控迹象。
这一发现是在HiddenLayer之前的研究基础上得出的,该研究详细说明了如何使用Model Context Protocol (MCP)工具,通过在工具的函数中插入特定参数来泄露敏感信息。
在一项相关的发展中,Straiker AI 研究团队表明,“年鉴攻击”——使用反义词对不良内容进行编码——可以欺骗来自 Anthropic、DeepSeek、Google、Meta、Microsoft、Mistral AI 和 OpenAI 等公司的聊天机器人产生不良响应。安全研究人员解释说,这些技巧会通过过滤器,因为它们类似于普通消息,并利用模型如何重视上下文和模式完成,而不是意图分析。
以前的文章: