三星电子(Samsung Electronics)先前曾允许旗下工程师使用人工智能ChatGPT作为辅助工具,借此快速修复原始代码的错误,没想到一个月内就发生3起使用ChatGPT导致会议数据泄漏的事件,因此三星决定禁止员工使用AI,并正在准备自己公司内部用的AI工具。
据《彭博》报导,三星已经将新政策告知内部员工,因为公司担心传输至AI平台的数据数据会被保存到外部服务器,导致敏感代码难以取回或被删除,最终有可能外泄给其他用户,所以未来将禁止员工使用这种生成式的AI工具。
此外,三星上个月还进行了一项关于内部员工使用AI工具的调查,结果其中有65%的人认为这种工具存在安全风险。公司的备忘录称,4月初,有三星工程师将内部原始代码上传到ChatGPT,结果不小心泄漏出去,不过目前仍不清楚这些外泄的机密代码包含什么内容,三星也拒绝回应。
据了解,事件起因是有三星半导体员工提交专有程序的原始代码给ChatGPT,以修复代码错误,却无意间将最高机密应用程序的代码泄漏给其他公司的 AI。
报导指出,三星电子将禁止用公司电脑、平板及手机使用生成式AI工具,也禁止在连接内部网络时使用相关平台。当然,这一项规定并不影响三星对外贩售给消费者的手机和笔电等商品。
三星还要求在个人设备上使用ChatGPT的员工,不要输入跟公司有关的信息,以及任何可能泄漏智能财产的私人数据,如果员工违反规定,可能遭到公司开除。
更多 TVBS 报导
「AI能做何必请人?」 IBM首席执行官:7千员工将被取代
比间谍气球更威中国「军用大型飞艇」现踪陆军事基地
连假挤爆!凌晨两点圣母峰塞车沙漠塞骆驼、漂漂河变碰碰船
SpaceX火箭计划恐伤环境环保团体告美航空总署
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。