文章主题:关键词:ChatGPT,网络安全,大模型,人工智能
图片来源@视觉中国
ChatGPT概念火到安全圈,大模型在垂直领域的应用实践战已经打响。
在各大互联网公司纷纷公布其在GPT领域的研发进展之后,网络安全行业也开始跃跃欲试,尝试着亲身体验OpenAI的ChatGPT的实际性能及其是否值得投入应用。正如其在全球范围内引起的巨大轰动一样,OpenAI的ChatGPT以其通用的特性,赢得了网络安全从业者的关注。他们开始探索GPT技术在网络安全领域的实际应用场景,希望能够将其优势与网络安全业务相结合,实现创新。
可识别钓鱼邮件,也能生成诱饵
在实际应用中,我们可以通过识别钓鱼邮件,并运用自身的语言理解能力来分析并识别文本中的潜在钓鱼攻击特征,进而有效地预防和应对钓鱼攻击事件。这一点是网络安全专业人士在试用了ChatGPT之后的主要发现之一。
然而,在硬币的另一面,ChatGPT也能根据人工提示生成极具真实感的诱饵素材,让受害者深信他们是与真实的人在进行交流。这无疑极大地提高了社交工程攻击的便利性,攻击者可以利用GPT轻易地模仿受害者在社交网络上的朋友或家人。
GPT的出现,为网络安全领域带来了新的机遇与挑战。根据多位业内专家的共同观点,GPT的自动化攻击手段已被黑客迅速采纳,成为一种普遍现象。如果不及时采取相应措施应对这些攻击手段的变化,企业乃至我国关键信息基础设施将面临持续的网络安全威胁。因此,我们应当关注并积极应对由GPT引发的安全问题,以保障我国网络安全环境的稳定和发展。
“现在,迫切需要我们在网络安全领域具备能打硬仗的能力。”一位网络安全领域的创始人兼CEO表示。“安全就是攻防对抗,这类技术的出现,有点像火器的出现。两军对阵,本来拿着大刀长矛的,当火器技术出现了,它会重塑人类的战争、行为方式。”另一位大厂安全业务负责人也说。
在某种相似的目标驱使下,钛媒体App不完全梳理发现,近期已有至少7家网络安全企业公开展示了将GPT技术应用于安全领域的实例,这些企业包括微软的Microsoft Security Copilot、360集团的360智脑、绿盟科技的智能安全客服机器人、启明星辰的盘小古以及四维创智的ChatCS等。
网络安全领域类ChatGPT应用
在查看各家公司公开的GPT应用案例时,我们发现大多数都集中在安全事件应对、漏洞发掘以及风险评估等领域。然而,在与业内专业人士的交流中,钛媒体App观察到,尽管各个场景的应用落点存在一定的相似性,但在技术实现途径上,各个公司却呈现出了一些微妙的差异。
技术路线各有不同
拆解技术路线,其实还要从ChatGPT说起。
作为人工智能助手,我需要强调的是,无论是OpenAI的ChatGPT还是其后续的GPT4.0,乃至于百度目前推出的文心一言,这些被称为通用大模型的技术,都缺乏明确的行业特化,因此在一般情况下,它们都可以应对各种场景,如客服、文本生成等。然而,当涉及到一些特别专业化且对答案准确度要求较高的行业时,这些通用大模型就会因为缺乏必要的专业知识而显得力不从心。
所以当网络安全行业在使用GPT的时候,并不能像其他行业一样直接接入已经训练好的GPT4.0,而是需要重新构建一个用网络安全领域的专业知识训练出的大模型,然后再将其应用到实践中。
不过,在与业内人士交流的过程中,钛媒体App发现,同样是训练网络安全领域的大模型,各家所选择的技术路线也有所差异:他们有的是先有安全知识图谱,然后在类ChatGPT的大模型基础上加工;有的是没有类ChatGPT的大模型,而是直接用安全知识图谱训练成一个大模型;也有的可能并没有强调知识图谱,而是用所有数据直接训练。
在过去的实践中,我们收集了丰富的数据,涵盖了安全日志、系统日志、威胁情报生产与分析过程数据、开源情报、安全技术报告以及APT报告等。借助人工智能技术,我们对这些数据进行深度挖掘与分析,从而构建出一系列实战化的攻防模型和安全知识图谱,进一步提升了我们的安全防护能力。对此,绿盟科技CTO叶晓虎作出了详细阐述。
在有了实战化攻防模型以及安全知识图谱后,绿盟科技利用类ChatGPT的大语言模型对这些知识做进一步加工,形成安全专业领域里面的类GPT的应用,即今年三季度即将发布的网络安全领域知识问答系统。
“我们所有下游任务都只基于ChatCS这一个大模型。在训练和应用ChatCS之前,我们先花费精力做网络安全领域的通用知识图谱,然后利用知识图谱的异构数据归一化能力生成数据集再去训练网络安全领域的大模型。”四维创智人工智能项目负责人表示。
他解释称,他们所推出的ChatCS,是一个使用RLHF技术微调并利用知识图谱进行领域知识约束的垂直领域大语言模型。思路是首先构建以“漏洞概念”为核心的网络安全领域知识图谱—Vuln_Sprocket,再将图谱生成先验知识集训练模型,后续,ChatCS能够背景知识对用户原始指令进行优化。在最新的测试版本中,ChatCS_test 尽管只具备82亿参数,但已经可以很好的完成领域知识问答、测试脚本生成、告警日志分析等操作。
目前,其余几家网络安全厂商还未完全披露训练GPT的路径细节,但据业内人士分析,360集团的网络安全GPT应该是以通用大模型为底座,然后加入网络安全相关数据调优的路径,与绿盟科技和四维创智都有很大不同。
不过殊途同归。绿盟科技CTO叶晓虎称,智能安全客服机器人达到的效果是,应用可以在安全事件应急响应处置、海量日志分析研判、安全智能推理和决策、安全领域的代码编写等方面发挥积极作用。其余厂商的GPT实践也与此多有重合。
又是一场长跑
值得注意的是,自ChatGPT爆火以来,也才100余天的时间。短短三四个月,网络安全厂商们能够快速上马ChatGPT与其背后已经积累的相关数据集有很大关系。但需要思考的一个问题是,既然网络安全行业迫切需要也能够有自己的大模型,为什么当OpenAI火了之后,网络安全圈才关注到大模型即将带来的变革?
原因可能在于,对于大模型来说,技术可能并不是根本问题。问题一方面在高质量的安全数据语料,而另一方面则是保持对人工智能信仰以及持续训练大模型的心态和思维。
“之前只是小规模尝试过网络安全AI自动化的事情,一两次不达预期就没有再尝试。但ChatGPT用事实告诉我们这条路行得通,大家才敢放手投入。”一位网络安全创业者表示。
除了试错成功,大模型出现告诉网络安全届的另一个信号是,大模型确实有可能导致对抗方式底层逻辑的变化。“如果通用大模型能够把智能推理和智能决策应用这条路走通的话,实际上可以让对抗方式从过去的经验式变成范式化工作,之前经验存在于人脑,没办法复用,但如果走通这方面会有很多变化。”叶晓虎说。
很显然,OpenAI的ChatGPT仅仅只是个开始,无数的试错在等待蜂拥而上的中国创业者这又是一场长跑
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号AIGC666aigc999或上边扫码,即可拥有个人AI助手!