直击ISC2023:AI时代,大模型如何保障“自我安全”

直击ISC2023:AI时代,大模型如何保障“自我安全”

近年来,数字化已被确立为推动国家高质量发展的重要战略。数字经济蓬勃发展,为新型基础设施建设注入了强劲动力,其中,以人工智能为代表的数字技术正在引领着数字内容生产方式和消费模式的深刻变革。与此同时,数字安全的重要性愈发凸显。传统安全防护手段难以应对日益复杂多变的安全威胁,数字安全问题亟待得到解决与创新。

今日,ISC2023第十一届互联网安全大会在北京正式召开,作为全球首场人工智能数字安全峰会,本届大会以“安全即服务 开启人工智能时代数字安全新范式”为主题,围绕数字安全的创新与前景展开讨论共同探讨如何在数字化与智能化的背景下,构建更为智能、高效的数字安全体系。

ISC 大会主席、360公司创始人、董事长兼CEO周鸿祎表示,进入人工智能时代,人工智能带来了安全问题比我们想象的要更多,生成式AI带来内容安全问题、安全可控问题将更为显著。所以数字化攻击的后果就是企业业务停顿,政府的数据丢失直接威胁国家安全。

360在安全领域深耕十五年的实践证明,只有靠高级网络安全专家通过平台进行持续运营,才能发现威胁,并进行及时响应。他指出,目前企业实现体系化安全运营,存在缺平台、缺探针、缺数据、缺专家四大障碍。为此,360推出“安全即服务”理念,发布新一代安全产品“360安全云”,将沉淀在全网安全大脑里的世界级安全能力全面「云化」和「服务化」,这意味着360全面开放15年在网络安全领域积蓄的深厚“内力”释放,低成本、高效能输送给企业级客户。

融合安全能力,360智脑大模型体系升级

作为全球数字安全发展的风向标,ISC2023也重点关注了人工智能大模型的安全问题。在大模型落地实践应用与挑战研讨论坛上,360智脑总裁张向征宣布360智脑大模型体系全面升级。

张向征指出,如今360智脑大模型已经进入到以周为单位的能力迭代。在最新一个版本的迭代中,360智脑性能提升了14.55%,拥有更强的推理能力、更强的文本生成能力,多元灵活的结构性交互能力,支持SaaS化部署及本地化部署。

在论坛上,360正式推出基于公司对于安全行业从业积累的垂直大模型——360智脑安全大模型。未来,将内置于360的企业级大模型,让安全成为大模型必备的属性。

直击ISC2023:AI时代,大模型如何保障“自我安全”

张向征认为,“安全是大模型的底线,没有安全的大模型如同‘裸奔’。”因此,将安全能力打造成为大模型的底座能力,在业务场景中带来可信的使用环境。

首先,360智脑安全大模型充当了安全领域的万事通。通过对安全相关知识的深度训练,它成为了行业内的安全专家。这种专业知识的积累和应用,为网络安全领域的专业人员提供了宝贵的参考和指导,使他们能够更加高效地应对不断变化的安全威胁。

其次,360智脑安全大模型基于360全球最大的网络安全攻击样本库和知识库。通过强大的大模型识别能力,它能够在网络攻击和误报的识别方面达到惊人的96%-97%准确率,这一准确率远超人类专家的80%,极大地提升了网络安全防护的有效性和精度。

此外,智脑安全大模型还采用了大语言模型与人进行对话,实现功能调度,从而有效提高了网络安全运营人员的工作效率。这种交互性能让安全运营人员能够更迅速地获取所需信息,做出决策,从而更加灵活地应对各种安全事件。

在提高大模型可信与安全能力方面,360智脑一直在不断探索边界,6月12日,360智脑的360GPT-S2-V8型号产品,通过中国信息通信研究院可信AIGC大语言模型功能评估,成为国内首个通过该项权威评估的大模型产品。

大模型发展趋势不可逆,安全问题不可避

在会后交流环节,周鸿祎向大模型之家分享了自己对于大模型行业的前瞻见解。他认为,大模型的未来的将朝着“垂直化”“产业化”“专业化”“企业化”的方向发展。

直击ISC2023:AI时代,大模型如何保障“自我安全”

其中,在大模型“垂直化”方面,周鸿祎指出:不能依赖一个万能的、单一的大语言模型来应对各种任务,在通用大语言模型基础之上,要能以安全可控的方式让客户定制自己的垂类小模型。千亿乃至更大参数量的大模型,虽然能够节约人力,但训练与推理成本仍然居高不下。因此,面向行业真实的业务场景,更需要结合场景构成垂直大模型,不需要大量的数据量和算力,降低部署成本,才能赋能千行百业,走向产业化。

同时,周鸿祎判断,未来企业都将拥有多个大模型,每个(智能)设备都有大模型的能力,最后通过大模型的配合,为企业输送全面的能力。

人工智能的快速发展,也让网络、数据、算法安全格局产生了全新的变化。周鸿祎还强调“不能用网络安全的思路,解决数据安全的问题,不能用数据安全的思路,解决人工智能安全的问题。”360作为国内最早研究人工智能安全领域的公司之一,今日发布的智脑安全大模型便是360对于大模型安全探索的实例之一,人工智能不仅能解决传统安全问题,也可以让人工智能的能力解决人工智能领域的问题。

大模型之家在《人工智能大模型产业创新价值研究报告》中指出:随着大模型使用的普及,数据安全和隐私保护将成为一个重要的议题,保护个人隐私和企业敏感信息的技术和法律措施将得到进一步加强,以确保数据的合规性和安全性。同时,保证大模型自身的可解释性与生成结果的安全可信,也是行业必须面对的挑战。

安全大模型作为解决大模型安全问题的方法,在多个方面展现了其可行性和优势。通过集成多种安全机制,安全大模型提供了综合性的防护,涵盖隐私保护、鲁棒性增强和模型水印等。其学习到的安全特征使其能够有效地检测和识别各类潜在安全威胁。

同时,持续的迭代改进使安全大模型能够适应不断变化的风险环境,减少外部依赖,从而提高了整体的安全性和自主性。通过集中的管理,安全大模型简化了安全管理的复杂性,实现了更高效的监控、更新和维护。而迁移学习和共享知识的应用使安全大模型能够从不同领域的安全问题中获益,更好地适应多样化的安全挑战。

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注