科技

三星考虑禁用ChatGPT员工输入涉密内容将被传送到外部服务器

三星电子(Samsung Electronics)引入聊天机器人ChatGPT不到20天,便曝出机密资料外泄。

 

据韩国媒体《economist》3月30日报道,近日,三星内部发生三起涉及ChatGPT误用与滥用案例,包括两起“设备信息泄露”和一起“会议内容泄露”。报道称,半导体设备测量资料、产品良率等内容或已被存入ChatGPT学习资料库中。

据悉,三起泄密事件均发生在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门。而最初三星也因担忧内部机密外泄而禁用ChatGPT,不过基于半导体是“生成式AI”的建构基础,三星自今年3月11日起允许DS部门使用ChatGPT,但装置体验(Device eXperience,简称“DX”)部门仍禁用ChatGPT。

据《economist》报道,三星DS部门的A职员,日前在执行半导体设备测量资料库(DB)下载程序的源代码时出现了错误,便复制出有问题的原始代码到ChatGPT,并询问了解决方法。另外,三星DS部门的B职员把为了把握产量、不良设备而编写的源代码输入到ChatGPT,并要求其优化。另外,三星DS部门的C职员则将手机录制的会议内容转换为文件后输入到ChatGPT,要求其制作会议纪录。

据媒体报道,三星向职员公布了上述内容,并要求员工注意ChatGPT的使用方式。该公司通过内部公告解释道,在ChatGPT输入内容后,相关资料都将传送到外部服务器,如果让ChatGPT学习三星内部资料,可能会让敏感内容外泄。

韩媒向三星方面确认消息真实性时,相关负责人表示“因为是公司内部情况,所以很难确认”。

为杜绝类似事故再发生,三星正在制定相关保护措施,防止通过ChatGPT发生信息泄露事故。该公司向员工表示“若采取信息保护紧急措施后仍发生类似事故,公司内部网络可能会切断ChatGPT连接”。

不止公司层面,已经有国家监管机构注意到了数据安全风险。当地时间3月31日,意大利个人数据保护局宣布,从即日起禁止使用聊天机器人ChatGPT,限制其开发公司OpenAI处理意大利用户信息,并开始立案调查。个人数据保护局认为,3月20日ChatGPT平台出现了用户对话数据和付款服务支付信息丢失情况。而该平台没有就收集处理用户信息进行告知,且缺乏大量收集和存储个人信息的法律依据。

此前3月23日,OpenAI的首席执行官Sam Altman公开承认开源库中出现错误,导致部分用户与ChatGPT的聊天记录被泄露。当天他发布致歉推文,表示已经修复了错误并完成验证。

来源:澎湃新闻