本文来自微信公众号:芯东西 (ID:aichip001),作者:翊含,编辑:Panken,原文标题:《首起ChatGPT芯片机密泄露!三星成受害者》,题图来自:视觉中国(画面中紫色领带者为三星会长李在镕)


芯东西4月3日消息,据韩媒报道,三星设备解决方案(DS)部门才启用聊天机器人ChatGPT 20多天,就闹出了3起数据泄露事故,导致其与半导体设备测量、良品率/缺陷、内部会议内容等相关信息被上传到ChatGPT的服务器中。


这一事件立即引起了韩国全网的关注与热议。DS部门主管三星的存储、芯片设计、晶圆代工等半导体核心业务,自今年3月11日起允许员工使用ChatGPT。结果有3位员工为了“图省事”,把机密数据送到海外了。


美国人工智能(AI)企业OpenAI是ChatGPT的开发商,但这3起泄密事故的锅可背不到OpenAI头上。在ChatGPT使用指南中,OpenAI已经明确说明输入ChatGPT聊天框的文本内容会被用于进一步训练模型,警告用户不要提交敏感信息。


三星已采取限制ChatGPT输入问题长度、限制办公电脑使用等紧急措施,筹备以防再发生类似信息泄露事故的保护措施,并正考虑在构建自己的人工智能服务。当前,多家海外企业已采取措施阻止或限制员工使用ChatGPT。


3位员工将三星机密数据输入ChatGPT


美国初创公司OpenAI会获取用户们在ChatGPT输入的内容,并将这些数据用于进一步训练模型。如果用户提问的内容涉及企业机密,相关内容将会遭到大范围泄露。OpenAI也在ChatGPT使用指南中告知“不要输入敏感内容”。


三星电子担心ChatGPT的内部使用可能会发生公司内部机密等信息泄露的问题,一直在阻止在企业内使用ChatGPT。但从3月11日开始,DS部门允许使用ChatGPT。负责影像显示、家电、移动通信、医疗设备等业务的三星设备体验部门(DX部门)目前还禁止使用ChatGPT。


允许DS部门使用ChatGPT的原因是该部门负责人认为员工有必要认识到当代技术发生的变化。三星只是允许使用ChatGPT,并向员工们发布公告称:“注意公司内部信息安全,不要输入私人内容。”


DS部门实施这项运营政策不到20天,就发生了令人担忧的“公司内部信息泄露”事故。三星电子掌握的事故内容为两起“设备信息泄露事故”和一起“会议内容泄露事故”。三星在得知相关事实后,实施了“紧急措施”事项,包括将每个问题的上传容量限制在1024字节。三星计划调查企业信息泄露事故经过,必要时给予当事员工惩戒。


  • 三星电子DS部门员工A某在运行半导体设备测量数据库(DB)下载程序的源代码时发生了错误。于是他复制所有有问题的源代码,输入ChatGPT,询问解决方法。


  • 员工B某将为“设备测量”及“产量和缺陷”编写的程序代码整个相关源输入ChatGPT,要求其优化代码。


  • 员工C某通过NAVER Clova应用程序(APP)将用智能手机录制的会议内容转换为文档文件后,输入到ChatGPT中,目的是要求制作会议记录。


三星电子向员工通告了上述情况,并提醒员工谨慎使用ChatGPT。三星通过内部公告警示说:“在ChatGPT中输入内容的瞬间,数据就会发送到外部服务器并存储,公司无法收回。如果ChatGPT学习相关内容,敏感内容可能会提供给不特定的多数人。”


三星电子提高对生成式AI理解,限制使用ChatGPT


三星电子正在制定防止通过ChatGPT泄露信息事故再次发生的保护措施方案。该公司告知员工:“如果在采取信息保护紧急措施后仍发生类似事故,公司内部网可能会阻止ChatGPT连接。”


一位三星电子相关人士对询问此次信息泄露事故的记者说:“因为是公司内部情况,很难确认。”


三星电子认为生成式AI可能会使半导体生态系统发生变化,因此敦促管理层采取应对措施。上月22日,以全体高管为对象,以“ChatGPT登场,生成式AI创造未来”为主题举行了在线研讨会。三星电子副会长韩钟熙曾强调ChatGPT的重要性,强调有必要提高对生成型AI的理解。


为了防止今后公司主要机密和个人信息等泄露,DX部门就ChatGPT的使用情况对公司员工进行问卷调查。 问卷不仅包括询问是否有使用ChatGPT的经验,还包括询问对公司内部使用ChatGPT的看法等内容。


三星电子计划以问卷调查结果为基础,制定上传容量限制或业务PC(个人电脑)使用限制等内部规定,并与员工共享。


三星电子设备解决方案部门(DS部门)在最近的公告栏上发布了提醒注意ChatGPT误用的信息。各组长还对组员进行了ChatGPT可用范围等培训。


各大公司限制ChatGPT使用,制定ChatGPT使用指南


半导体业务大部分属于国家机密,一不小心就会上传报告等内部信息,泄露机密。全球钢铁制造厂巨头韩国浦项制铁为了防止通过ChatGPT泄露信息,正在准备通过内部Intranet(企业内部网)利用ChatGPT的途径,向员工进行引导。浦项制铁公司在内部协作平台“Teams”中引入ChatGPT功能,只在内部系统内使用ChatGPT,从而同时加强安全性和工作效率。


市场调查公司Gartner对62名企业人事负责人进行了问卷调查,结果显示,其中48%的人表示正在制定ChatGPT等AI聊天机器人业务的使用指南。


全球第二大存储芯片巨头韩国SK海力士除必要时刻外几乎禁止公司内部网使用ChatGPT。


韩国液晶面板龙头公司LG Display通过公司内部帖子和教育、活动等,随时强调公司内部信息保护和防止泄露等信息安全认识。海外因担心机密信息泄露而限制使用ChatGPT的企业越来越多。各家公司担心如果在ChatGPT中输入信息,AI可能会学习并泄露给外界。


最近,JP摩根大通、美国银行、花旗集团、高盛、德意志银行等美国银行限制使用ChatGPT等AI聊天机器人。


据《日本经济新闻》等媒体报道,日本软银集团最近向全体员工通报了禁止在ChatGPT中输入机密信息等注意事项,该集团还计划制定了哪些业务或用途可以使用交互式AI的规则。


在日本,瑞穗金融集团、三菱UFJ银行、三井住友银行禁止将ChatGPT等交互式AI用于业务。此外,松下控股旗下松下Connect在制定信息泄露对策后才允许使用交互式AI。富士通设置了“AI伦理治理室”,提醒用户使用交互式AI时的注意点。


一位韩国商界相关人士称,ChatGPT一直以来都是热门话题,现在大家都在试着使用和学习,企业也需要更加警惕信息泄露等问题。


结语


ChatGPT在聊天界面和输入的信息极有可能会泄露,关于这一点并没有任何安全保障。各大公司纷纷意识到了这一点并立马开始建立完善的ChatGPT使用说明以提示员工谨慎使用这一软件。


ChatGPT像一把双刃剑,在为大家提出各种问题解决方案的同时,也让提问者经受着输入信息被泄露的风险。要想安全有效地使用这一软件,还需提高谨慎,在有完善的信息保护体系之前,不要输入任何有关企业机密信息的问题。


本文来自微信公众号:芯东西 (ID:aichip001),作者:翊含,编辑:Panken,信息来源:韩联社、韩国《经济学人》‍‍