7月31日,第十二届互联网安全大会(ISC.AI 2024)数字安全峰会在北京召开。峰会以“打造安全大模型,引领安全行业革命”为主题,呼吁行业以大模型重塑安全体系,守护数字经济稳健发展。大会汇聚了多位院士专家,以及360、华为、微软等国内外企业领袖,深入剖析人工智能技术发展带来的安全挑战与解决方案,共同探索安全大模型驱动数字安全发展新路径。
人工智能安全问题不容忽视,亟须产研携手共探新解法。人工智能技术的广泛应用正推动各行各业转型升级,同时为安全行业的发展注入了强劲动力。中国工程院院士吴世忠表示,由AI技术带来的新型安全问题已成为现实,安全行业将迅速迈进AI驱动的新时代。然而,大模型安全研究可以说刚刚开始。无论是安全研究还是安全产业,都必须紧跟科技进步和应用创新,才能服务好发展、保障好发展。
“当前,AI应用系统安全责任与风险严重失衡。”中国工程院院士、国家数字交换系统工程技术研究中心(NDSC)主任邬江兴强调了当前AI系统面临的窘境。他提出,基于内生安全架构可发现或纠正AI应用系统安全问题,AI应用系统中必须包含必要多样性和相对正确公理的内生安全构造,在不可信的过程中找到相对可信的结果。智能时代需要选择正确的技术路径,实现更安全的AI应用系统。
随着人工智能技术的飞速发展,所有行业和产品都在被重塑,安全行业同样面临着一场革命。360集团创始人、ISC大会主席周鸿祎表示,用AI重塑安全的本质是让安全做到“自动驾驶”,360首推安全大模型,为购买360标准产品的用户免费提供大模型标准能力,实现大模型普惠和安全行业新质生产力变革。作为兼具数字安全能力和AI技术双重优势的厂商,360基于深厚的全栈大模型底层技术、世界上规模最大的安全知识库、亚洲最大的高级安全专家团队和多领域全覆盖、强实战的安全场景能力,打造了国内首个安全大模型“360安全大模型”,并在终端、安全运营、安全服务等诸多业务场景落地实践。目前360全线安全产品已集成安全大模型能力,并为所有购买360标准产品的用户免费提供大模型标准能力。
随着生成式人工智能驱动AI发展进入新阶段,AI治理随之也成为一个突出问题。先进计算与关键软件(信创)海河实验室主任、中国新一代人工智能发展战略研究院执行院长龚克在演讲中指出,AI治理应遵循有利发展、为人服务和基于伦理三点原则,要清楚认识到技术自身的不足,以及人对于AI技术的恶用、滥用、误用等风险。他强调,防止AI“作恶”要建立明确的伦理标准、提高透明度、加强问责、完善法律法规、内置安全机制等。此外,要坚持开放创新,在信创基础上发展安全可控的AI生态。 (责任编辑:闫航 审核:于亚杰) |