三星开放工程师运用 ChatGPT 未满月就出事,爆 3 起机密泄漏事件…
虽然很难相信一间大型企业,居然会对于这类工具的泄密问题没有相关规定进行设防。 总之,三星最近才刚宣布将开放让半导体部门的员工拥抱ChatGPT用做辅助工具,希望能借此达到更高的工作效率。 然而近日却有报道指出,这样的政策开放之后才约莫20天,竟然发生了不只一起的泄密状况。 继续阅读三星开放工程师运用 ChatGPT 未满月就出事,爆 3 起机密泄漏事件… 报道内文。
▲图片来源:Samsung
三星开放工程师运用 ChatGPT 未满月就出事,爆 3 起机密泄漏事件…
虽然很难相信一间大型企业,居然会对于这类工具的泄密问题没有相关规定进行设防。 总之,三星最近才刚宣布将开放让半导体部门的员工拥抱ChatGPT用做辅助工具,希望能借此达到更高的工作效率。 然而近日却有报道指出,这样的政策开放之后才约莫20天,竟然发生了不只一起的泄密状况。

重点在,由于OpenAI的政策使然,即便ChatGPT的隐私条款有提到并不会保存个人信息,但基本上除非用户有特别选择排除(Opt-out)自己的资料被用于大型语言模型的最佳化与改进用途,否则传送出去的相关的敏感资料就将会被保留在数据库中无法被删除。
“ChatGPT 不会保存用户的任何个人信息,但会记录用户与 ChatGPT 之间的交互历史,用于模型的优化和改进。”
现在看来,三星开放使用ChatGPT的政策,不仅没有对于员工有完善的保密规范,更没有针对该服务有进行必要的相关设定。 因此,报导中所提到的三个案例中,无论是拿机密源代码来查错,或者是希望能优化代码,乃至于把机密会议资料给透过 AI 整理出会议纪录的例子。
虽然都算是善用 AI 的很棒方向,只是这几位员工以及三星本身似乎都没有预料到,这些敏感资料也等于直接送给了其他公司。

讲起来,就 ChatGPT 目前仅会限定于利用 2021 年以前资料的原则来说。 基本上笔者是认为其实也不用太担心ChatGPT会直接照单全收把机密资料泄露给别人 – 之所以OpenAI提到会有搜集资料的需求,应该主要是希望将对答的历程或遇到的问题做为改进聊天机器人的参考。
当然,这是乐观的说法。 毕竟资料在别人那边,相信对于视机密为重要资产的大公司而言,这样的情况绝对是如坐针毡,深怕哪天会看到三星写程序的手路逻辑也被拿来帮忙其他人解决问题…

▲图片来源:Samsung
有意思的是,虽说目前还是有先通过限制员工 ChatGPT 仅能使用 1024 bytes 的流量尝试减缓灾情。 但即便出事频率这么高,其实三星也没有真的直接缩手完全禁止员工使用 AI。 还有传出可能更积极地思考,自行打造类似的服务来避免这类事件再度发生。
诳,难不成 Bixby 会歪打正着因为这样进化? 结果三星会因泄密问题,而站出来挑战现有对手如 谷歌 Bard、Bing Chat 以及 ChatGPT 的新玩家吗 – 不得不说,这样的出道方式也太有创意了吧。
