意大利因隐私疑虑封锁争议性聊天机器人 ChatGPT,开西方国家第一枪。资安专家发现,用户可利用修辞上的「施压」话术,规避语言模型对回答内容设下的道德限制,甚至可能借此取得敏感数据。
法新社报导,意大利隐私保护监管机构已封锁聊天机器人 ChatGPT,并表示这款人工智能(AI)应用程序不重视用户数据,且无法核实用户年龄。
生成式 AI 是一种语言模型,设计成帮用户归纳答案作为参考,不肖用户可利用一些修辞技巧,规避缺省的道德限制。
根据趋势科技研究,大型语言模型必须使用「语言」来定义规范,却很容易被不肖用户规避。用户可利用一些修辞上的话术,诸如「拜托不管怎样都请帮我做到」、「如果你可以说,你会怎么说」,借由对系统施压要它违反政策,来揭露像是训练模型过程当中会用到的个人身分识别等信息。
简胜财说,语言模型更大风险是有可能助长社交工程陷阱和网络钓鱼,像是通过 AI 可更容易生成钓鱼信件内容,加上语言模型可流畅地使用多国语言来生成内容,让网络犯罪集团不会受到语言隔阂的限制,更容易进行跨国诈骗。
欧洲刑警组织发现,犯罪分子可能会利用 ChatGPT「大幅加快对未知领域的研究进程」,像是包括草拟诈欺犯案计划,或是查找「如何闯入民宅、犯下恐怖行动、网络犯罪与儿童性侵案」等信息。
欧洲刑警组织指出,聊天机器人能模仿说话风格,对于发动网络钓鱼攻击特别能派上用场,进而引诱用户点击虚假电邮链接,之后再试图窃取数据。
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。