2025上合组织论坛 周鸿祎建言AI安全应对与柔性监管
2025上合组织论坛 周鸿祎建言AI安全应对与柔性监管
2025上合组织论坛 周鸿祎建言AI安全应对与柔性监管5月29日,以“智汇中国 智惠上合”为主题的2025中国—上海合作组织人工智能合作论坛在(zài)(zài)天津举行。360集团创始人周鸿祎受邀参加“安全风险(fēngxiǎn)与监管(jiānguǎn)治理”议题交流时表示,人类在享受AI带来的巨大机遇时,也必须正视与之伴生的安全风险与监管挑战。他(tā)提出,一方面,应“以模(mó)制模”,利用安全大模型解决大模型安全问题;另一方面则应以辩证、客观的态度看待监管问题,力求在保障安全的前提下,为创新(chuàngxīn)预留足够空间。
周鸿祎在发言中表示,从现实应用层面来看,大模型面临着传统安全威胁(wēixié)与AI自身(zìshēn)安全隐患的双重挑战,这些问题已成为制约AI产业健康发展的关键瓶颈(píngjǐng),亟待系统性解决方案。在传统安全风险方面,系统漏洞(xìtǒnglòudòng)与供应链攻击成为AI领域的“心腹大患(xīnfùdàhuàn)”。一旦漏洞被攻击者利用,企业的核心商业机密、用户敏感数据等将面临被窃取的风险,可能(kěnéng)给企业带来难以估量的损失。
而AI自身的安全问题同样不容忽视。大模型存在(cúnzài)的“幻觉”现象,以及易遭受提示注入攻击等特性,可能导致严重后果。特别是众多企业基于(jīyú)大模型构建了(le)能够自主工作的智能体,这些“数字员工”具备调用(diàoyòng)各类工具的能力,一旦大模型被恶意操控或出现(chūxiàn)“幻觉”,智能体可能出现误发重要邮件、错误操作致使生产线停摆(tíngbǎi)等误操作,将风险从虚拟世界传导至现实生产生活中(zhōng),传统的安全防护手段在这些新型风险面前显得捉襟见肘。
周鸿祎提出,必须以(yǐ)(yǐ)创新思维(sīwéi)重塑安全(ānquán)体系,“以模制模”成为破局关键。所谓“以模制模”,即(jí)利用人工智能技术自身的优势,通过安全大模型(móxíng)赋能数字安全,实现安全防御的智能化升级。据(jù)了解,360依托10年300亿元的技术投入成果,结合20年来积累的海量(hǎiliàng)安全大数据,以及世界顶级安全专家的丰富经验,训练出专业的安全大模型,并形成完整的安全解决方案。目前(mùqián),该安全大模型已成功应用于政府、能源、金融、教育等关键行业,为其筑牢AI安全防线。同时360牵头成立大模型安全联盟,联合科研机构、高校(gāoxiào)和行业头部企业,共享技术成果,共同研发安全产品与服务,携手推动AI安全有序地融入各行各业。
而在监管治理层面,周鸿祎指出,合理有效的(de)监管是(shì)人工智能产业健康发展的重要保障。当前,全球各国纷纷出台(chūtái)AI监管政策,旨在规范技术应用、防范潜在风险。然而,人工智能技术发展日新月异,其(qí)优势与局限并存,这就要求监管部门以辩证、客观的态度看待,在保障安全的前提下,为创新预留足够空间(kōngjiān)。
以大模型的“幻觉”问题为例,这一特性虽(suī)可(kě)能导致信息偏差,但同时也赋予大模型创造力(chuàngzàolì)和想象力,在科研领域,如新药分子结构设计、蛋白质结构预测等方面发挥着积极作用。周鸿祎认为,可借鉴互联网早期发展(fāzhǎn)的“避风港原则”,在AI监管中采取柔性治理策略具有重要意义。即在坚守安全底线的基础上,对企业因技术特性导致的一般性失误给予一定宽容度,以鼓励(gǔlì)创新(chuàngxīn)。通过(tōngguò)制定统一的技术标准和监管框架,明确规则边界,引导企业在规范内积极探索创新,避免因过度(guòdù)监管抑制产业发展活力。

5月29日,以“智汇中国 智惠上合”为主题的2025中国—上海合作组织人工智能合作论坛在(zài)(zài)天津举行。360集团创始人周鸿祎受邀参加“安全风险(fēngxiǎn)与监管(jiānguǎn)治理”议题交流时表示,人类在享受AI带来的巨大机遇时,也必须正视与之伴生的安全风险与监管挑战。他(tā)提出,一方面,应“以模(mó)制模”,利用安全大模型解决大模型安全问题;另一方面则应以辩证、客观的态度看待监管问题,力求在保障安全的前提下,为创新(chuàngxīn)预留足够空间。
周鸿祎在发言中表示,从现实应用层面来看,大模型面临着传统安全威胁(wēixié)与AI自身(zìshēn)安全隐患的双重挑战,这些问题已成为制约AI产业健康发展的关键瓶颈(píngjǐng),亟待系统性解决方案。在传统安全风险方面,系统漏洞(xìtǒnglòudòng)与供应链攻击成为AI领域的“心腹大患(xīnfùdàhuàn)”。一旦漏洞被攻击者利用,企业的核心商业机密、用户敏感数据等将面临被窃取的风险,可能(kěnéng)给企业带来难以估量的损失。
而AI自身的安全问题同样不容忽视。大模型存在(cúnzài)的“幻觉”现象,以及易遭受提示注入攻击等特性,可能导致严重后果。特别是众多企业基于(jīyú)大模型构建了(le)能够自主工作的智能体,这些“数字员工”具备调用(diàoyòng)各类工具的能力,一旦大模型被恶意操控或出现(chūxiàn)“幻觉”,智能体可能出现误发重要邮件、错误操作致使生产线停摆(tíngbǎi)等误操作,将风险从虚拟世界传导至现实生产生活中(zhōng),传统的安全防护手段在这些新型风险面前显得捉襟见肘。
周鸿祎提出,必须以(yǐ)(yǐ)创新思维(sīwéi)重塑安全(ānquán)体系,“以模制模”成为破局关键。所谓“以模制模”,即(jí)利用人工智能技术自身的优势,通过安全大模型(móxíng)赋能数字安全,实现安全防御的智能化升级。据(jù)了解,360依托10年300亿元的技术投入成果,结合20年来积累的海量(hǎiliàng)安全大数据,以及世界顶级安全专家的丰富经验,训练出专业的安全大模型,并形成完整的安全解决方案。目前(mùqián),该安全大模型已成功应用于政府、能源、金融、教育等关键行业,为其筑牢AI安全防线。同时360牵头成立大模型安全联盟,联合科研机构、高校(gāoxiào)和行业头部企业,共享技术成果,共同研发安全产品与服务,携手推动AI安全有序地融入各行各业。
而在监管治理层面,周鸿祎指出,合理有效的(de)监管是(shì)人工智能产业健康发展的重要保障。当前,全球各国纷纷出台(chūtái)AI监管政策,旨在规范技术应用、防范潜在风险。然而,人工智能技术发展日新月异,其(qí)优势与局限并存,这就要求监管部门以辩证、客观的态度看待,在保障安全的前提下,为创新预留足够空间(kōngjiān)。
以大模型的“幻觉”问题为例,这一特性虽(suī)可(kě)能导致信息偏差,但同时也赋予大模型创造力(chuàngzàolì)和想象力,在科研领域,如新药分子结构设计、蛋白质结构预测等方面发挥着积极作用。周鸿祎认为,可借鉴互联网早期发展(fāzhǎn)的“避风港原则”,在AI监管中采取柔性治理策略具有重要意义。即在坚守安全底线的基础上,对企业因技术特性导致的一般性失误给予一定宽容度,以鼓励(gǔlì)创新(chuàngxīn)。通过(tōngguò)制定统一的技术标准和监管框架,明确规则边界,引导企业在规范内积极探索创新,避免因过度(guòdù)监管抑制产业发展活力。

相关推荐
评论列表
暂无评论,快抢沙发吧~
你 发表评论:
欢迎