ChatGPT导致信息泄露后:三星将开发内部AI工具
站长网2023-05-03 09:11:260阅
快科技5月2日消息,早些时候,三星在引入ChatGPT不到20天内,就出现了3起与之相关的泄密事件。近日,三星在内部备忘录中告知员工,暂时禁止使用ChatGPT或其他生成式人工智能,避免类似的情况出现。
内部备忘录显示,三星担心传输到谷歌Bard和微软Bing等人工智能平台的数据存储在外部服务器上,难以检索和删除,最终可能会泄露给其他用户。
同时,备忘录表示,三星进行了一项内部使用AI工具的调查,其中有高达65%的受访者认为此类服务存在安全风险。
值得一提的是,为了避免内部信息泄露,三星还计划开发自己的内部AI工具。该AI将被用来翻译、总结文件和辅助软件开发,并协助研究如何阻止敏感公司信息上传至外部服务器。
此外,三星在备忘录中表示:我们要求您认真遵守我们的安全指南,否则可能会导致公司信息泄露,违者进行纪律处分,甚至包括解雇。”足以见得,三星在防范AI泄露信息方面的决心。
0000
评论列表
共(0)条相关推荐
- 0000
- 0000
- 0000
- 0000
- 0000