站内搜索:
机遇与挑战并存 如何给AI加上“安全护栏”?
日期:[2025-02-23]  版次:[A03]   版名:[2025年广州市两会]   字体:【


■如何为AI加上“安全护栏”?在2025年广州两会上,人大代表、政协委员对此进行了讨论。 图片来源:腾讯混元AI生成。

今年广州两会,有政协委员提出技术、法律和伦理层面的多维策略

人工智能(AI)作为引领新一轮科技革命的核心技术,正在深刻改变各行各业的生产方式和社会治理模式,但它的广泛应用也带来了数据泄露、欺诈攻击等新的威胁。比如,生成式AI技术可以快速生成钓鱼邮件、编写恶意软件,甚至通过“深度伪造”技术伪造画面、视频和声音,导致网络诈骗事件频发。如何为AI加上“安全护栏”,已成为社会各界关注的焦点。对此,今年广州两会,有政协委员提出技术、法律和伦理层面的多维策略。

相关案例

案例1

五男子“AI换脸”破解平台认证

篡改系统数据牟取暴利被判刑

2022年4月,李某某通过网络购买培训教程及相关软件程序,掌握了“AI换脸”技术,能够利用他人个人肖像照片实现伪造“眨眼”“摇头”等活体视频通过人脸实名认证、登录某服务平台系统个人账户。

当年6月至次年2月,李某某先后招募孔某某、周某等人传授技术,随后又从符某某、陈某等中介处承揽非法人脸识别业务,同时采用“AI换脸”技术破解系统登录验证,由上家对系统内相应人员信息进行修改、增减,为多家公司非法牟利。

在此期间,孔某某加入李某某技术团伙开展非法人脸识别业务,2023年8月又脱离团伙,先后招募王某等人另组团伙,从陈某、“坤哥”(在逃)等中介处承揽非法人脸识别业务继续作案。而陈某、符某某、陈某某作为中介,为两团伙提供客户资料。

经鉴定,缴获的各团伙成员手机、电脑中分别有公民个人信息7000条至60000余条不等,非法获利人民币40万元至120万余元不等。

广州市南沙区人民法院一审判决被告人李某某、孔某某、符某某、陈某、陈某某犯非法获取计算机信息系统数据罪,判处有期徒刑三年八个月至三年三个月不等,并处罚金人民币18万元至4万元不等。宣判后,被告人李某某、孔某某不服,提起上诉。广州市中级人民法院二审裁定驳回上诉,维持原判。

案例2

未经授权用他人肖像进行AI换脸

某公司因侵犯肖像权被判赔款

赵某是一名短视频博主,经常拍摄上传国风造型的短视频,很快拥有了5.6万粉丝。

某天,赵某偶然发现了一款手机软件,用户可以挑选该软件里众多网红明星的肖像视频,点击即可实现“换脸”效果,购买软件会员还可以无水印导出“换脸”视频。更让她惊讶的是,这款软件里竟然有她自己的古风视频。

赵某觉得不对劲,因为她从来没授权给这家公司。她认为自己肖像权被侵犯了,还被这家公司以卖会员形式非法牟利。于是赵某诉至法院,要求该公司删除相关侵权视频及链接,公开道歉并赔偿经济损失、维权费用。

法院审理认为,某公司未经同意就利用信息技术手段使用赵某肖像,其行为构成对赵某肖像权的侵害。因某公司已将赵某要素合成视频删除,故本案判决某公司向赵某赔礼道歉,并赔偿赵某财产损失及合理维权费用。

两会声音

广州市人大代表、广州广电五舟科技股份有限公司总裁谢高辉:在发展中逐步解决AI带来的安全风险

AI发展风险与机遇并存。广州市人大代表、广州广电五舟科技股份有限公司总裁谢高辉坦言:“任何新技术的引入都会伴随一定的风险,特别是当前备受关注的人工智能和大数据,其背后的数据安全问题我们无法回避,只能在发展过程中逐步解决。”他强调,不能因为担心数据安全而停滞不前,要真正让新技术变成促进社会发展、推动生产力发展的有力工具。

“我们在使用大数据和大模型时,有时候会将未经脱密的数据上传到模型中,这可能也会导致数据泄露的风险。”结合自身行业经验,谢高辉提到,需要通过技术和管理的手段合理有效地控制这些风险。

具体来说,一方面要通过技术手段加强数据保护,确保数据在传输和处理过程中的安全性;另一方面,要通过完善管理制度,规范员工使用数据的行为,防止数据泄露等事件的发生,确保人工智能正向推动社会和产业发展。

同时,谢高辉还就广州在人工智能领域的发展提出了看法。他认为,广州应在应用层面下功夫,让人工智能工具与现有产业、城市治理和群众日常生活密切相关的应用场景紧密结合,真正落到实处。“人工智能必须与自身产业结合发展,才能发挥其赋能作用,实现这一工具真正意义上的合理且安全应用。”他说。

广州市政协委员、广东省工程师学会执行会长刘桂雄:AI安全需技术硬约束、法律强约束与伦理软约束

广州市政协委员、广东省工程师学会执行会长刘桂雄表示,当前AI发展呈现大模型通用化、边缘AI崛起、行业渗透加速的趋势。这具体表现在以GPT-4、Claude为代表的多模态模型逐步向通用人工智能(AGI)靠拢,边缘AI的普及,轻量化模型部署至手机终端设备大大降低延迟,AI在医疗、制造、金融等领域的深度融合推动自动化决策和效率提升。

在享受AI技术便利的同时,其广泛应用也伴随着安全威胁。刘桂雄指出,AI训练依赖海量数据,在数据收集和共享环节易被攻击或滥用,导致隐私泄露规模化。而生成式AI的滥用,如深度伪造技术,降低了欺诈门槛,威胁着社会信任。此外,由AI驱动的钓鱼攻击、漏洞挖掘效率远超传统防御体系,算法偏见也可能放大社会歧视,侵害特定群体权益。

“从整体上看,AI的利仍然大于弊。”针对这些安全威胁,刘桂雄提出了技术、法律和伦理层面的多维策略。

在技术层面,他建议部署“AI安全护栏”技术,例如内容水印、深度伪造检测工具等,同时构建模型开发全生命周期安全评估框架。在法律层面,他呼吁明确AI开发者、部署者的连带责任,建立黑箱系统的逆向追责机制,对高风险AI,如自动驾驶、医疗诊断等实施强制认证和动态监测。在伦理层面,他主张推动“价值对齐”(Value Alignment),将人类伦理准则嵌入模型训练目标,同时成立跨学科伦理委员会,评估AI应用的长期社会影响。

“AI安全需技术硬约束,如隐私计算;法律强约束,如分级监管;伦理软约束,如‘价值对齐协同,才能推动行业标准从‘被动合规’转向‘主动免疫’。”刘桂雄说。

律师说法

汉盛律师事务所高级合伙人李旻:加快制定专门法规应对已显现风险

李旻表示,近年来,我国在AI网络安全标准立法方面取得了显著进展,相继出台了网络安全法、数据安全法、个人信息保护法等相关法律,为AI安全监管提供了法律基础。同时,《人工智能安全治理框架》1.0版的发布,也为AI安全治理提供了重要指导。

此外,现行刑法已能覆盖多数AI滥用行为,立法供给整体有效。“例如,刑法中关于诈骗罪、侵犯公民个人信息罪等条款,可以适用于AI犯罪的相关行为。”李旻说。

不过,李旻提到,随着AI技术的复杂性增加,立法和监管仍面临挑战,仍需进一步细化和补充专门法规,以应对具体问题。

在预防AI犯罪方面,李旻建议完善相关法律法规,明确AI犯罪的定义和责任归属,同时,针对数据隐私泄露、知识产权侵权等已显现的风险,加快制定专门法规进行规制,针对自动驾驶伦理困境等远期问题,保持法律的谦抑性,尽量采取事后规制。

在AI时代,隐私泄漏遭窃取,AI换脸遭遇网络诈骗等情形时有发生。对此,李旻提醒,个人用户也需积极采取措施保障网络安全,增强安全意识,关注官方信息,提高对AI技术的理解和辨识能力。同时,加强个人信息保护,定期更新和加强密码保护,避免在不可信平台泄露个人信息,使用安全软件和防火墙,安装反病毒和反恶意软件工具。

■策划:新快报记者 陈红艳 ■采写:新快报记者 毛毛雨 高京 ■摄影:新快报记者 龚吉林 毕志毅

分享到:
  以上内容版权均属广东新快报社所有(注明其他来源的内容除外),任何媒体、网站或个人未经本报协议授权不得转载、链接、转贴或以其他方式复制发布/发表。