谷歌宣布将生成式人工智能引入网络安全领域
最近,在生成式人工智能领域中出现了一种新的趋势——面向网络安全的生成式人工智能,谷歌也想在这个领域获得先机。
在日前的 RSA 2023 大会上,谷歌宣布了 Cloud Security AI Workbench,这是一款由一种名为 Sec-PaLM 的专门的「安全」AI 语言模型驱动的网络安全套件。
Sec-PaLM 是谷歌 PaLM 模型的一个分支,专门针对安全用例进行了「微调」,包括软件漏洞、恶意软件、威胁指示和行为威胁对象档案等安全情报。
Cloud Security AI Workbench 涵盖了一系列新的 AI 工具,例如 Mandiant 的威胁情报 AI,利用 Sec-PaLM 查找、总结和处理安全威胁。另一个谷歌产品 VirusTotal 将使用 Sec-PaLM 帮助用户分析和解释恶意脚本的行为。此外,Sec-PaLM 还将协助谷歌云安全服务 Chronicle 的用户搜索安全事件,并与结果进行「对话」。
谷歌在一篇今天的博客文章中写道:「尽管生成式人工智能最近很受关注,但 Sec-PaLM 是基于谷歌和 DeepMind 多年的基础人工智能研究和我们安全团队的深度专业知识而来。我们才刚刚开始意识到将生成式人工智能应用于安全的实力,并期望继续利用这种专业知识为我们的客户带来巨大进步,并推动整个安全社区的发展。」
然而,这些都是相当大胆的计划,特别是考虑到 Cloud Security AI Workbench 的首个工具 VirusTotal Code Insight 目前仅处于有限的预览阶段。(谷歌表示计划在未来几个月内向「信任的测试人员」推出其余工具。)实际上,Sec-PaLM 的效果好不好仍尚未明确。
毕竟,AI 语言模型——无论多么先进——都会犯错。它们还容易受到 Prompt injection 等攻击的影响,造成它们的行为与其创建者的意愿不符。
当然,这并不会阻止科技巨头们的步伐。今年 3 月,微软推出了名为 Security Copilot 的新工具,旨在利用 OpenAI 的生成式 AI 模型(包括 GPT-4)「简要总结」与「理解」威胁情报。与谷歌类似,微软声称,生成式人工智能将使安全专业人员更好地应对新威胁。
这还有待验证。实际上,面向网络安全的生成式人工智能可能会成为一种过度宣传,因为其有效性缺乏相关的调查研究。
- 0000
- 0000
- 0000
- 0000
- 0000