不仅让普通人能一眼识别AI,降低被误导风险,更能为司法机关提供溯源依据
如今随便动动手指,一张图片或者一段视频就由AI生成了。简单明了的操作,使得很多人动起了歪心思。 作为普通人,分辨内容到底是人工创作的还是AI生成的,难度还是非常大。
从本月开始,国家互联网信息办公室等四部门联合发布《人工智能生成合成内容标识办法》(以下简称《标识办法》),明确所有AI生成内容必须添加显性和隐性标识。这不仅让普通人能一眼识AI,更能为司法机关提供溯源依据。对于这个话题,新快报记者采访了法官、律师等专业人士,进一步对新规进行解读。
■采写:新快报记者 毛毛雨 高京
问题
有公司靠批量生成图片打官司赚钱
近年来,生成式人工智能、深度合成等新技术大幅降低了内容创作的门槛。无论是图片、文章,还是音视频,都能通过简单指令快速生成。生成的内容被不法分子用于电信诈骗,或制造虚假视频侵害他人名誉与肖像权。当公众难以区分AI生成内容与人工原创内容时,“眼见不再为实”就从一句警示变成了普遍的社会焦虑。
广州市互联网法院法官林北征介绍,在司法实践中已经涌现出不少与人工智能生成内容相关的典型案件,其中之一就是AI生成内容所引发的著作权归属争议。
AI生成物的法律属性如何认定?AI生成物是否构成《著作权法》意义上的“作品”?目前国内外司法实践尚无定论。另一方面,AI生成过程的不透明性,使得要核实人类在其中的具体贡献非常困难。
“我们在审理中就遇到过,维权方主张权利的图片中,出现了AI画图常有的‘六根手指’的瑕疵,因为无法给出合理解释,最终只能撤诉。”林北征说。
与此同时,新的商业维权模式就形成了。林北征表示,有些公司利用AI低成本海量生成图片后,到处“碰瓷”起诉别人侵权,目的就是打官司赚钱。
林北征指出,《标识办法》的实施,正好解决了这个问题。一个清晰、可靠的“AI生成”标识,从源头标明了它的身份,让司法机关判案时能有清晰的依据,从而有效阻止那些“钻空子”的商业维权行为,为新兴的数字版权市场建立起更加清晰、公正的规则。
新规
AI生成内容需添加显式和隐式标识
《标识办法》明确,服务提供者提供的人工智能生成合成内容应当添加显式标识和隐式标识。简单来说,不管技术如何迭代,只要是用AI生成或合成的内容都需要打上标识。
林北征举例道,AI生成合成内容涵盖范围十分广泛。文字诸如AI写的文章、营销文案、工作报告、代码,或者对话机器人的应答;图片诸如以文字生成的艺术插画、产品设计图,一些应用中常见的虚拟头像、游戏场景图等;音频诸如AI作曲、AI语音合成,一些有声书制作、虚拟客服常会利用AI朗读任意文本。
另外,视频中最具代表性的AI换脸、AI驱动的虚拟数字人直播、对视频内容进行智能剪辑和特效添加等等都是技术复杂性最高、潜在风险最大的领域。
在未来虚拟场景方面,例如元宇宙、VR/AR/XR等沉浸式体验中由AI实时或预先构建的虚拟环境也应当明确标识。
“显式标识”可以一眼识别
《标识办法》中提到的“显式”与“隐式”标识是指什么样的标识?
根据规定,显式标识是指在生成合成内容或者交互场景界面中添加的,以文字、声音、图形等方式呈现并可以被用户明显感知到的标识;隐式标识是指采取技术措施在生成合成内容文件数据中添加的,不易被用户明显感知到的标识。
广东国鼎律师事务所律师何生廷认为,不同应用场景适用不同的标识,显式标识是为了让用户“一眼识别”,“例如某篇文本备注由‘AI生成’,读者能一眼判断出是AI作品。一段AI合成的音频,在开头有语音提示‘本音频由人工智能生成’。”
“隐式标识”是技术“身份证”
隐式标识类似更像是一个技术性的“身份证”,核心功能是“可溯源”。在内容中嵌入一张包含生成合成内容属性信息、服务提供者名称或者编码、内容编号等制作要素信息的“ID识别卡”,主要是在发生侵权、违法行为时,为监管机构、司法机关等提供追溯内容来源的技术依据。这类标识很难通过肉眼察觉,需要专业工具来读取和验证。
林北征指出,“显式标识”存在一些局限性,最直观的就是影响内容的整体美感和用户体验,且相对容易被技术手段恶意裁剪、遮盖或移除。而“隐式标识”与文件本身深度绑定,即使用户下载、复制或转发,标识信息也会随之一并传播,且不易被普通编辑工具篡改。
浙江恒霁律师事务所律师卢琼表示,《标识办法》实施后,对于普通用户来说,当看到视频或图片时,可以直观查看是否有显式标识。
“作品边角处是否有AI生成、人工智能合成等字样。同样,由于AI生成的图片在细节上可能存在瑕疵,用户也可以重点留意手指数量是否正常、眼神是否怪异等。”卢琼说。
汉盛律师事务所高级合伙人李旻提醒道,恶意使用者可能通过技术手段删除或伪造标识,此时普通用户的判断可能受限,需结合平台审核机制,或借助相应技术工具及检测手段综合识别判断。
影响
“AI生成”水印 防止老人“被忽悠”
生活中,尤其是很多老年人在刷短视频或者其他内容时,一般很难辨别是否是人工智能合成,容易上当受骗,导致被骗取钱财,如今,直观的“AI生成”水印标识有助于让老年人一眼就能知晓内容的性质,降低被误导的风险。
何生廷表示,若老年人因此受骗,相关部门可通过隐式标识追溯内容的生成源头、传播路径等信息,为查处违法犯罪行为提供依据,从而对不法分子形成有效威慑,减少此类诈骗行为的发生。
最重要的是,老年人辨别能力的提升还需配套措施。李旻认为,部分老年人可能忽视平台提示或不了解标识含义,此时需通过社区科普、媒体宣传等公共教育增强认知;另外,恶意使用者删除标识等行为让平台的核验能力成为关键。
总体而言,《标识办法》为老年人提供了制度性的“保护屏障”,但具体效果需依赖平台执行、技术检测与用户教育的协同。
林北征指出,一旦服务提供者被认定违规,将依法面临一系列处罚。违规服务提供者可能面临警告、通报批评、责令限期改正等行政处罚。
在一些深度伪造案件中,未标识的内容可能严重侵害他人名誉权,造成精神损害和经济损失,服务提供者可能需要承担相应赔偿等民事责任。如若涉及为犯罪活动提供技术支持,例如利用“AI换脸”制作不雅视频进行敲诈勒索、生成虚假视频进行电信诈骗等,平台经营者可能涉嫌构成帮助信息网络犯罪活动罪等罪名,被依法追究刑事责任。
案例
“AI换脸”引发纠纷
“AI换脸”极易引发人格权侵权纠纷。有一被告公司未经一位在网络上颇具人气的国风博主许可,就擅自将其发布的短视频制作成其小程序中的“AI换脸”模板,并提供给付费用户进行面部替换。
此案关键争议点在于,被告辩称模板视频已对原告面部进行了替换或遮挡,因此不构成对肖像权的侵害。
广州市互联网法院审理后指出,根据《民法典》规定,肖像是“可以被识别的外部形象”,认定核心在于“可识别性”,而不仅限于面部特征。当视频中保留的衣着服饰、发型、体态等一系列外部特征,足以让了解原告的社会公众能将其与特定主体(即原告本人)建立起稳定联系时,这一整体形象就应当被认定为肖像权的客体,受到法律保护。
最终,法院判决被告行为构成对原告肖像权的侵害。而《标识办法》所要求的标识制度,正是解决此类问题的治本之策。一个明确的“AI生成”标识,能从源头上警示所有接触者:该内容经深度合成,并非原始影像。这能明显降低此类技术的欺骗性,防范利用“换脸”实施侵权甚至诈骗行为。