当AI走进生活谁来守护安全?
发布时间:2026-03-14 11:49:05| 浏览次数:

在今年全国两会上,人工智能再度成为高频热词。代表委员们在关注人工智能技术热度的同时,更将目光投向人工智能安全这一主题,共同探讨如何护航人工智能向善发展。
全国人大代表、上海交通大学校长丁奎岭表示:“人工智能在赋能千行百业的同时,也带来了不容忽视的安全挑战。比如,AI被用于非法收集个人财产信息、实施精准诈骗,甚至被恶意利用引发更大范围的安全风险。特别是近期频发的AI换脸、声音合成等技术滥用现象,让个人信息安全、财产安全乃至社会信任体系都面临着新的威胁。”
这些发生在公众身边的现实风险,折射出一个深层次的矛盾。全国政协委员、中国科学院科技战略咨询研究院研究员张凤表示,人工智能的发展速度已远超安全机制建设的步伐。
张凤介绍,2025年9月,中央网信办发布《人工智能安全治理框架》2.0版,明确将人工智能安全风险分为技术内生安全风险、技术应用安全风险,以及技术应用衍生安全风险。
具体而言,在技术层面,人工智能可能存在数据违规收集、算法偏见歧视以及系统漏洞等问题,直接影响系统的可靠性与公平;而在应用层面,人工智能易被用于输出和传播违法有害信息,污染网络生态,甚至可能被违法犯罪活动利用。此外,算法推荐加剧的“信息茧房”效应和深度合成技术带来的认知操控风险,对社会共识与意识形态安全构成潜在威胁。更深远的影响,人工智能还会给劳动力就业、教育科研伦理带来冲击与挑战。
“人工智能带来的安全风险贯穿技术全生命周期,覆盖研发、部署、使用与迭代各环节,与经济社会各部分呈现高度交织与动态演化的特征。”张凤说。
安全风险存在的广泛性与多变性,对治理提出了严峻考验。全国人大代表、贵达律师事务所主任朱山从法律角度指出,当前人工智能治理面临“规则滞后”与“监管滞后”的双重困境。
朱山举例说,一方面,深度合成换脸侵权、自动驾驶责任认定、AI生成内容版权纠纷等新型案件不断涌现,但现有法律规则适配性不足;另一方面,执法机构的技术能力与跨部门协同机制尚不健全,面对涉及多主体、跨环节的新型侵权行为,传统监管模式力不从心,容易出现监管盲区。
面对AI技术带来的系统性风险,代表委员们普遍认为,必须坚持发展与安全并重,通过升级技术、完善法治体系为人工智能系好“安全带”。
近年来,国家始终把人工智能法治建设摆在重要位置。网络安全法、数据安全法、个人信息保护法等筑牢基础法律防线,《生成式人工智能服务管理暂行办法》等专项规制文件相继出台,配套技术标准、伦理规范与监管机制同步完善。
在现有基础上,代表委员们为进一步筑牢法治根基建言献策。朱山建议,加快人工智能法立法进程,配套出台司法解释,明确归责原则与举证责任分配规则。他同时强调技术对法治的支撑作用,建议健全技术调查官制度,精准补齐法官的技术认知短板,并搭建全国统一的人工智能内容溯源验真平台,从源头降低维权成本。
在技术赋能方面,张凤提出系统性建议:“要加快人工智能安全核心技术研发,如可解释性算法、鲁棒性训练框架与隐私增强技术等,从技术源头提升系统可靠性与可控性;再如通过数据脱敏、联邦学习等手段强化数据全生命周期防护。”
针对监管短板,朱山建议,加快执法部门监管技术迭代升级,大力发展监管科技,实现对人工智能全链条风险的穿透式监管。
“人工智能安全治理是一项系统性、长期性工程,需坚持技术向善、制度护航、社会共治三位一体。”张凤的这番话,道出了代表委员们的共识——要推动政府、企业、社会、公众同向发力,从源头筑牢安全防线。
强化标准引领与主体责任,是源头防范风险的关键。“现在市面上人工智能生成内容工具、智能推荐算法繁多,但缺乏统一的安全合规标尺。”针对中小微企业面临的合规困境,朱山深有感触。他建议,加快出台算法审计、深度伪造检测等国家统一技术标准,为市场主体提供指引;压实企业全生命周期的合规主体责任,把风险防控融入技术研发、产品上线、运营维护的全流程。
针对“AI换脸诈骗”“算法歧视”等具体问题,张凤提出“可识别、可验证、可追溯”的治理思路。她建议,强制人工智能生成内容嵌入不可篡改的数字水印与元数据标识,建立国家级真实性核验平台,完善人工智能内容生成与传播的全链路日志记录机制。“在金融、招聘、信贷等高风险领域建立算法影响评估与透明度披露制度,避免算法滥用导致的歧视与不公。”张凤说。
丁奎岭表示,应进一步强化个人信息保护,严防信息泄露,健全完善相关安全保密体系。“归根结底,我们要坚持科技向上向善的发展理念,让人工智能技术普惠大众、服务人类。”丁奎岭说。返回搜狐,查看更多