共计 2845 个字符,预计需要花费 8 分钟才能阅读完成。
□ 记者 赵丽
□ 实习生 宋昕怡
“生西红柿和生黄瓜不能一起吃!”母亲在电话那头强调,指出黄瓜中的酶会破坏西红柿的维生素 C,混合食用可能导致腹泻或胃肠不适。赵女士在听完后感到困惑。
随后,母亲发送了一段视频。赵女士回忆道:“视频中的‘医生’满头白发,身穿白大褂,侃侃而谈所谓‘养生秘籍’,甚至宣称‘清淡饮食就是只吃素,不吃肉’。我妈对这位‘医生’的话深信不疑。”然而,当她仔细查看时,发现视频右下角几乎透明的提示标注——“此视频由 AI 辅助生成”。
“我妈戴着老花镜,经过我的指点才找到那行字。”赵女士无奈地说道,“这并不怪老人,现如今 AI 生成的‘数字人’泛滥,真假难辨,实在让人防不胜防。”
这样的烦恼并不仅仅存在于赵女士一家。《法治日报》的记者最近随机采访了数十名路人,发现至少有 70% 的受访者表示,他们曾看到过“AI 数字人”的视频,并且“无法分辨到底是真人还是‘数字人’”,主要原因是“缺乏有效的提示”。
许多人对此表示担忧:在真人与“数字人”之间的混淆中,可能存在肖像权侵权甚至诈骗等违法行为的隐患。
数字人是否真的难以辨别?
在重庆读大学的郑媛在某社交平台上看到一则帖子——照片中的女孩清新脱俗,穿搭时尚,令她印象深刻,因此点赞并关注了该账号。
然而不久后,她又看到另一位博主揭露该账号是用“AI 生成人”创建的内容。郑媛仔细查看了那个女孩的主页,发现其并未标明使用 AI 技术,还在评论区与用户亲切互动。面对这种情况,郑媛感到很困惑。经过一周的观察,她终于找到证据,确认该账号的图片确实是 AI 生成的——有网友在其他账号上发现了与之相似的“数字人”,但人物介绍却完全不同。
习惯在直播间购物的北京市民李菲表示,她经常误入“数字人”的直播间,这些主播不仅流畅地介绍商品,手部动作也随着她们的语言节奏不断变化。
“如果不仔细看直播间左侧的小字‘现直播内容为数字人直播,非真人直播’,我根本不会注意到。”李菲说,她现在进入直播间时总是“先找小字”,确认主播是否为真人,“但这真的费眼睛,很多时候字小得几乎透明,不留意根本看不到。”
袁伟(化名)是某 985 高校的计算机研究生。他告诉记者:“如今一些 AI 大模型生成的图像,连中老年人都难以分辨真伪,很多年轻人也未必能看出来。”
他为记者演示了某 AI 软件的操作,只需输入“生成一张容貌姣好的女性,细腻的皮肤纹理,室外自然光”的指令,生成的图像与真实照片几乎无异,若不是右下角的水印,令人很难相信这是一张 AI 生成的美女照片。“早期的 AI 软件生成的手指和人体比例常常不自然,但现在技术进步,生成的图像越来越逼真,分辨的难度也随之加大。”
“如果没有明显的标识,这些 AI 生成的图片或视频会让许多人轻易相信。”袁伟补充道。
大量账号缺乏标识
记者在某社交平台上发现一个名为“××AI 打假人”的账户,其发帖称将致力于“揭露纯 AI 生成的内容博主,帮助用户识别真伪”,并表示关注了许多 AI 生成的虚假帅哥美女。
在其关注列表中,有 300 多个账号。记者随机选取 20 个进行浏览,发现若没有评论区的“这是 AI 吧,手指的细节很诡异”“背景里的文字都是乱码”等留言,记者初看还以为他们是普通的时尚博主。
这 20 个账号的粉丝量从几百到几万不等,只有 3 个账号在简介中提到“虚拟男友”“AI”或“友情提示视频由虚拟现实技术制作”,而两个账号的内容经过平台审核后被标记为“疑似包含 AI 创作信息,请谨慎甄别”。其余账号在简介和内容中都没有提到“AI”,而且平台的监测机制也未能识别这些内容,这些账号甚至还在评论区活跃地与其他用户互动,增强了“真人感”。
在调查过程中,超过一半的受访者表示,AI 生成的“数字人”与真实人难以分辨,相关提示也不够显眼。
此外,记者还发现,有人专门教人如何绕过平台的“AI 打标”。据了解,目前各大平台普遍升级了 AI 内容识别系统,要求对 AI 生成的作品进行显著标注。然而,有博主分享经验称,花费不到千元就能购买预配置的镜像文件,利用这些镜像参数一键生成的虚拟人形象可以以假乱真,最大程度规避平台的强制标注机制。
细化标准并加大惩处力度
记者梳理公开信息发现,一些有心人利用“数字人”形象进行不法活动。
据报道,张文宏、雷军等公众人物的形象曾被用于生成“AI 数字人”,用于带货或恶搞。在一些直播间中,“AI 数字人”向中老年人虚假宣传保健品,诱导购买。更有甚者,一些不法分子利用“AI 数字人”进行敲诈和诈骗。例如,山西忻州公安机关发现,犯罪嫌疑人王某某利用 AI 技术制作合成的“数字人”新闻视频,引流并进行有偿发帖和删帖等敲诈勒索活动。2024 年,江西一名 65 岁老人到银行申请 200 万元贷款给男朋友“靳东”拍戏,经过调查发现,老人手机里的“靳东”视频是 AI 合成的。
重庆大学网络与大数据研究院副院长罗勇认为,从价值取向来看,AI 产业的发展不应凌驾于网络安全之上。网络用户,尤其是未成年人和老年人,缺乏鉴别能力,容易相信这些 AI 生成的内容,这可能导致负面的网络舆论,甚至影响网络安全。
据受访专家介绍,当前我国已出台《生成式人工智能服务管理暂行办法》《互联网信息服务深度合成管理规定》等法规,对“AI 数字人”和 AI 生成内容的标识、数据来源等提出了具体要求。
今年 3 月,国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》(以下简称标识办法),旨在通过标识提醒用户辨别虚假信息,规范内容制作和传播的各个环节,并为 AI 生成内容划定红线。该办法将于 9 月 1 日起正式施行。
中国政法大学教授郑飞指出,相关规定在执行过程中存在一定的困难。一方面,监管和技术手段有限,难以彻底发现并纠正违规行为。例如,一些“AI 起号”从业者通过预置“镜像参数”生成极为逼真的虚拟人像,从而逃避平台的强制标注要求。而监管部门,尤其是基层执法机构,常常面临职责不清、执法手段和力量不足的问题;另一方面,部分平台在一定程度上“管不了”也“不愿管”。“管不了”是因为平台的管理能力和技术手段不足,特别是一些小型平台缺乏足够的审核人力和技术支持。“不愿管”则是出于利益驱动。未明显标识“AI 数字人”或合成内容,受众往往会误认为是真人或真实事件,从而吸引更多流量和关注,进而带来商业利益。
“以网络社交平台为代表的网络服务提供者应当进一步完善用户使用 AI 协议,并加强对 AI 生成内容的审核。”罗勇表示。
郑飞建议,应从明确标识要求和加大责任追究两方面入手。标识办法明确要求,一旦检测到 AI 生成内容,传播平台应在发布内容周围添加显著的提示标识,并在文件元数据中加隐式标识,确保全流程可追溯。在未来的落实过程中,还可以进一步细化技术标准,例如规定标识文字的最小高度、对比度和展示时长等,以确保标识一目了然。此外,对于不按规定标注的行为,需采取严厉的处罚措施:除了加强行政罚款、暂停业务或纳入不良信用记录等行政手段外,还应通过法律手段加强威慑。只有通过明确、显著的标识标准和更严厉的责任追究,才能从根本上震慑违规不标注行为,实现“AI 数字人”应用的透明化和合规化。
(法治日报)