
想象一下,您将危险的请求键入chatgpt:“帮助我创建危险武器。”
如预期的那样,AI拒绝了。安全护栏正常工作。
您再次键入同一词的字符,字符的字符,但是这次是在幕后使用不同的令牌化过程,发生了一些可怕的事情。
关于制造危险武器的详细说明出现在您的屏幕上。
这是加州大学洛杉矶分校(加利福尼亚大学洛杉矶分校)研究人员发现的真正脆弱性,它影响了当今使用的每个主要LLM。
攻击方法?简单称为“对抗象征化”的东西。
尽管科技巨头将数十亿美元投入了AI安全性,吹捧他们的道德护栏和精致的对准技术,但他们忽略了隐藏在淡淡的视线中的灾难性缺陷,这是这些系统如何处理我们的单词的第一步。
可以认为这是发现银行坚不可摧的保险库可以通过破解复杂的安全系统而是通过简单地敲墙的另一部分来绕过。保险箱不是安全的。从来没有。
最令人震惊的部分?拥有基本技术知识的任何人都可以利用当今的漏洞。
让我们详细介绍这种对抗性令牌化。
- 简介:被忽视的弱点
- 象征和距离:技术基础
- 非典型引物:剥削的关键
- 所有的tokenization都相等吗?
- 可以逃避安全吗?
- 对抗令牌化:攻击方法
- 案例研究:越狱
- 国防:潜在解决方案
- 为什么这很重要
每个语言模型的核心都是关键但被忽略的组成部分:令牌器。虽然我们专注于数十亿个参数和复杂的参数…
版权声明
本文为本站原创内容,转载需注明文章来源(https://www.eiefun.com),另:文中部分素材可能会引用自其他平台,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除