技术博客

    技术博客  >  追完OpenAI的“宫斗剧”,该深入思考大模型的应用了
    追完OpenAI的“宫斗剧”,该深入思考大模型的应用了
    背景图 2023-12-29 11:53:14

    近几月,ChatGPT背后的公司OpenAI频繁调整管理层。众人在“吃瓜”之余,也不免更关注到AI在各个领域的落地情况。根据IDC调研,蒙牛、百胜餐饮、国家开放大学、徐工集团、安吉尔、阿斯利康已经在生产、销售、电商、教学等进行AI应用的探索。

    比起还在“试水”的领域,网络安全领域的大模型却已经到了“不得不落”的地步。

    Gartner杰出研究副总裁Daryl Plummer表示,在生成式AI日益强大和普及的同时,该技术被不怀好意者滥用的风险也在加剧。

    显然,攻击方已经率先将大模型转化为尖锐的矛,防守方唯有用“AI对抗AI”,落地大模型,才能架起坚不可摧的盾。

    网络安全

    那么,在实际落地的过程中,数字化转型者们应该着重于哪些方面的应用?

    12月初,IDC发布了《大模型在网络安全领域的应用市场洞察,2023:破土萌芽,未来充满无限想象》报告,认为大模型在网络安全领域的五个主要应用方向分别是:安全运营、威胁情报、威胁检测与分析、应用程序安全和数据分类分级。

    安全运营

    安全运营是网络安全技术提供商基于大模型构建安全能力中最活跃的领域。技术提供商将大模型与态势感知平台、安全运营中心(SOC)、扩展检查与响应(XDR)系统等集成,安全运营人员可以使用自然语言与安全系统沟通,并调用各类基础安全工具,极大地简化和加速日常工作流程,降低安全运营对高级分析师的依赖。

    威胁情报

    GenAI(生成式AI)在威胁情报领域展现出直观的效果以及巨大的潜力。技术提供商将GenAI与威胁情报集成,帮助安全分析师通过自然语言进行威胁情报的查询和解释,简化甚至自动化部分判定流程,这在效率和准确性上的提升是显而易见的。随着威胁情报价值的提升和安全大模型的发展,两者的“协作”将发挥出巨大潜力。

    威胁检测和分析

    通过大模型增强威胁检测与分析能力,是技术提供商原有基础能力的聚合与增幅,而非对基础安全检测技术的替代。作为企业安全防护体系的“大脑”,大模型帮助安全分析师通过自然语言智能联动各类威胁检测引擎、AI小模型、安全工具及产品。利用大模型强大的计算能力和逻辑推理能力,对多源实时数据进行关联分析,提升大模型对异常行为、潜在威胁,尤其是未知威胁的检测效率和准确性。

    程序安全/应用安全

    GenAI可以帮助企业增强应用程序安全能力,从软件开发生命周期的起始阶段编写更安全的代码,并提升和简化检测和修复代码中安全缺陷的能力。当然,现阶段还无法通过GenAI帮助代码编写者实现应用程序安全性的巨大改进,产品还缺乏解释应用程序完整上下文的能力,因此难以防范复杂的代码安全风险。

    数据安全

    大模型在数据安全领域的应用也已经被技术提供商提上日程,特别是在数据分类分级中的应用前景令人充满期待。目前,众多数据安全厂商已经在运用机器学习、深度学习等技术来辅助进行敏感数据发现、分类分级、威胁分析等工作,随着安全大模型的加入,数据安全治理的效率和准确性将进一步提升。

    网络安全

    通过这份深入调研报告,IDC已经为数字化用户选择成熟、行之有效的大模型提供了有力参考。在国内,也不乏有在上述多个应用场景初露峥嵘的安全垂直大模型。比如深信服安全GPT作为国内首发且落地的安全大模型,在升级到2.0后,已完成检测大模型和运营大模型的标准化落地,并且通过日积月累的实践验证了在安全运营、威胁检测和分析、威胁情报等应用领域领先的真实效果

    安全GPT化身“虚拟专家”,7*24小时智能值守坐镇用户现场,当前已上线10+行业头部用户,运营人员1人即可守护数万资产,再次突破安全运营“降本增效”的瓶颈。

    经某国家单位测试,安全GPT高级威胁检出率高达92.4%,混淆代码检出能力也强于GPT-4。

    安全GPT可通过对话式辅助运营,分钟级告警解读研判。当前,已上线70+用户,通过对话式辅助运营承载80%的日常安全运营工作。

     

    也正如IDC的预测:

    将有更多的网络安全工具因为大模型的加入带来能力、效率和可用性等方面的跨越式发展。

    安全GPT已经落地于安全托管服务MSS、网络安全检测与响应平台XDR、统一端点安全管理系统aES全流程的工作中,实现“秒级闭环、百倍提效、千万级降本”的效果和效率的跃升。

     随着攻防形势加剧,网络安全领域的垂直大模型正在迅速走向成熟并迅速扩大应用面。选择一个领先、落地的安全大模型,或许会成为在数字化未来“领跑”的关键所在。