共计 3019 个字符,预计需要花费 8 分钟才能阅读完成。
真假难辨的“数字人”引发关注
专家建议:完善技术标准以实现“AI 数字人”合规和透明
□ 本报记者 赵 丽
□ 本报实习生 宋昕怡
“生西红柿和生黄瓜不能一起吃!黄瓜中的酶会破坏维生素 C,导致西红柿中维生素 C 的吸收受到影响,严重时可能引起腹泻或食物中毒。”电话那头的母亲说得详细,而赵女士却感到困惑。
随后,母亲发来了一段视频。赵女士回忆:“视频中一位头发花白、穿着白大褂的‘医生’侃侃而谈‘养生秘籍’,甚至声称‘清淡饮食就是只吃素,不吃肉’。我妈对他的言论深信不疑。”然而,赵女士仔细一看,视频右下角竟有一行几乎透明的标识——“此视频由 AI 辅助生成”。
“后来,我妈戴上老花镜,在我的指引下才找到那行字。”赵女士无奈地表示,“这也不能全怪老人家,现在 AI 生成的‘数字人’太多,真假难辨,确实让人防不胜防。”
显然,这样的困扰并非赵女士独自一人。《法治日报》记者近期随机采访了几十名路人,发现至少七成的受访者表示曾看过“AI 数字人”的视频,并称“难以分辨是真人还是‘数字人’”,主要原因是“缺乏有效的提示信息”。
许多人对此表示担忧:真假难辨的“数字人”存在肖像权侵权及诈骗等违法犯罪的风险。
识别“数字人”的困难
在重庆读大学的郑媛在某社交平台上看到一则帖子——帖子中的女生看起来温柔可人,穿着时尚,十分吸引眼球。郑媛随即点赞并关注了该账号。
不久后,郑媛却看到另一位博主揭露该账号的内容是用“AI 生成人”制作的,而她之前关注的账号正是被揭露的对象。“我仔细查看了那个女生的主页,她并未提到使用 AI 技术,评论区也在和其他用户亲切互动。”面对这种情况,郑媛感到困惑。经过一周的观察,她终于找到了证据,发现该账号的图片确实是 AI 生成的——其他账号上竟然出现了妆容和服装几乎相同的“数字人”,而人物介绍却截然不同。
习惯在直播间购物的北京市民李菲表示,自己常常误入“数字人”直播间,“数字人”主播流畅地介绍商品,手部动作也能随着语调变化而不断调整,声音自然动人。
“需要仔细查看才能发现直播间左侧有一行小字‘现直播内容为数字人直播,非真人直播’的提示。”李菲表示,自己现在习惯在进入直播间时“先找小字”,确认主播是否是真人,“但这真的需要费眼睛,文字常常几乎透明,不留意根本看不到。”
袁伟(化名)是某 985 高校计算机系的研究生。他告诉记者:“现在一些 AI 大模型生成的图像,连中老年人都难以辨别真伪,很多对 AI 技术了解不深的年轻人也未必能分清。”
他为记者演示了如何使用某 AI 软件生成图像,只需输入“帮我生成图片:一个容貌姣好的女性,精细的皮肤纹理,室外自然光”,生成的图像与真实照片几乎无异,若不是右下角的水印,令人几乎无法辨识。“过去,AI 软件生成的手指和身体比例常常不自然,但现在技术进步神速,生成效果已经相当逼真,分辨难度增加。”
“如果没有明确的标识,这些 AI 生成的图像或视频会让很多人误以为是真实的。”袁伟指出。
缺乏明确标识的账号
记者在某社交平台上注意到一个名为“××AI 打假人”的账号,其发帖称将致力于“识别纯 AI 生成的内容博主,帮助小白分辨真伪”,并表示关注了许多 AI 生成的帅哥美女。
在其关注列表中有 300 多个账号,记者随机选取 20 个浏览,发现若没有看到评论区“这是 AI 吧,手指的细节很奇怪”“背景里的文字都是乱码”等留言,第一反应都以为他们是普通时尚博主。
这 20 个账号的粉丝量从几百到几万不等,仅有 3 个在简介中提到“虚拟男友”“AI”“友情提示视频由虚拟现实技术制作”,两个账号的主页内容经过平台审核后被标记为“疑似包含 AI 创作信息,请谨慎甄别”。其余账号在简介和内容中未提及“AI”字眼,而平台监测机制并未识别到这些账号,甚至在评论区与用户进行亲密互动,让自己看起来更具“真实感”。
在调查中,超过一半的受访者向记者表示,AI 生成的“数字人”和真人难以辨别,相关提示并不显眼。
此外,记者发现有人还专门教人如何规避平台的“AI 标识”。据了解,许多平台已普遍升级 AI 内容识别系统,要求对 AI 生成的作品进行明显标注。但在调查中,有博主分享经验称,花费不到千元便可购买预配置的镜像文件,利用这些镜像参数一键生成的虚拟人像可假乱真,最大限度规避平台的 AI 标识机制。
应细化标准与加大惩处力度
记者梳理相关信息发现,一些不法分子利用“数字人”形象进行违法活动。
据报道,张文宏和雷军等公众人物的形象曾被用于生成“AI 数字人”,进行带货或恶搞。在一些直播间内,“AI 数字人”向中老年人虚假宣传保健品,诱导消费。更有甚者,不法分子利用“AI 数字人”进行敲诈和诈骗等犯罪活动。例如,山西忻州公安机关发现,犯罪嫌疑人王某某利用 AI 技术制作合成的“数字人”新闻视频进行引流,从而进行有偿发帖和删帖等敲诈行为。2024 年,江西一名 65 岁老人到银行办理业务,声称要贷款 200 万元给男朋友“靳东”拍戏,经调查发现,老人手机里的“靳东”视频竟是 AI 合成的。
重庆大学网络与大数据研究院副院长罗勇指出,从价值观的角度看,AI 产业的发展不应凌驾于网络安全之上。由于缺乏辨别能力,特别是未成年人和老年人,容易被 AI 生成内容误导,可能引发负面舆情,甚至对网络安全产生不良影响。
受访专家表示,目前我国已出台包括《生成式人工智能服务管理暂行办法》和《互联网信息服务深度合成管理规定》等法规,明确了“AI 数字人”和 AI 生成内容的标识和数据来源等要求。
今年 3 月,国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》旨在通过标识提示用户识别虚假信息,规范内容制作与传播的各个环节,为 AI 生成内容的合规性划定红线。该办法将于 9 月 1 日起实施。
中国政法大学教授郑飞指出,相关规定在落地过程中存在困难。首先,监管和技术手段有限,难以全面发现和纠正违规行为。例如,一些“AI 起号”从业者通过预置的“镜像参数”生成极为真实的虚拟人像,逃避了平台的强制标注要求。而基层执法部门通常面临职责不清、执法手段和力量不足的问题;其次,部分平台在一定程度上“不想管”。“管不了”是因为平台管理能力与技术手段不足,尤其是小型平台缺乏足够的审核人力和技术支持;“不想管”则是因为背后的利益驱动。未显著标识“AI 数字人”或合成内容可能会让受众误以为是真人或真实事件,从而更容易吸引关注和流量,进而带来商业利益。
“网络社交平台作为网络服务提供者,在 AI 生成内容的应用场景中,应进一步完善用户使用 AI 协议,并加强对 AI 生成内容的审核。”罗勇建议。
郑飞建议,应从明确标识要求和加大责任追究两个方面着手。标识办法明确要求,若检测到 AI 生成内容,传播平台应在发布内容周围添加显著的提示标识,并在文件元数据中加隐式标识,确保全流程可溯源。在未来的实施过程中,可进一步细化技术标准,例如规定标识文字的最小高度、对比度和展示时长等,以确保标识清晰可见。另外,对于不按规定标注的行为,需施以严厉惩罚:除增加行政罚款、暂停业务或纳入不良信用记录等措施外,还应通过法律手段加大威慑。只有通过明确、显著的标识标准和更严厉的责任追究,才能根本上震慑不规范的标注行为,实现“AI 数字人”应用的透明化和合规化。