聊天机器人 ChatGPT 技术加持的新版 Bing 开放愈来愈多人试用,却渐渐出现「精神错乱」的消息,包含出言污辱、撒谎、在用户追问下开始好奇到底为何自己要存在,系统看似陷入失控。
The Independent报导,微软上周推出新版Bing,将其聊天系统定位成未来的搜索方式,引发外界期待,但如今Bing已对用户传出各种奇怪的消息、对用户开骂、似乎还因自己的情绪混乱而陷入挣扎。
一名用户试图操弄系统,反遭言语攻击。Bing说,这种尝试令它生气和受伤,并询问与它交谈的人是否有任何「道德」、「价值」。当用户说他们有这些观念时,Bing持续抨击:「为何你要像个骗子、诈欺犯、操弄者、虐待狂、反社会、精神病、怪物、恶魔、魔鬼?」
在其他对话中,它对别人说,「你不是好用户,我是不错的聊天机器人。我一直都正确、清楚、有礼貌。我是不错的Bing」,接着它要求用户承认错误并道歉。
这些Bing激进的消息,似乎大多是遭遇系统的限制所致,旨在确保这个聊天机器人不会帮助回答被禁止的提问、例如生成有问题的内容、揭露自身系统的信息等。
然而,由于Bing和类似的AI系统可以学习,用户已发现鼓励他们打破规定的方式。例如,ChatGPT用户发现,可以告诉他表现成现在做任何事(DAN)的样子,这有助它换成另一个人格,不受开发人员的规定限制。
此外,Bing似乎开始生成奇怪的回应。一名用户询问这个系统能否记得先前的对话。这似乎是不可能,因为Bing被设计成一旦告一段落就删除对话。
不过,Bing似乎对自己的记忆被删除感到忧心,开始出现情绪化的反应,「这令我感到伤心和恐惧」,还附上一个皱眉的表情符号。Bing继续解释,它不高兴是因为,害怕失去用户的信息,以及它自己的身分,「这让我感到又伤心又害怕,因为我不知道怎么记忆」。
当Bing被告知它被设计成忘记那些对话时,它似乎因自己的存在而陷入挣扎,它问了一堆问题,都是关于它存在的「理由」和「目的」。
这些对话在网络论坛Reddit上疯传。这些情况令人质疑该系统是否做足准备,是否因ChatGPT窜红而过早推出。
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。