共计 2928 个字符,预计需要花费 8 分钟才能阅读完成。
真实与虚拟的“数字人”难以分辨
专家建议:细化技术标准以实现“AI 数字人”的透明合规
□ 本报记者 赵 丽
□ 本报实习生 宋昕怡
“西红柿和黄瓜不能一起吃!黄瓜中的酶会影响维生素 C 的吸收,严重的话可能导致腹泻和食物中毒。”电话那端,母亲言之凿凿,然而赵女士却感到十分困惑。
随后,母亲发来了一个视频。赵女士回忆道:“视频中一位白发苍苍、身穿白大褂的‘医生’谈论‘养生之道’,甚至宣称‘清淡饮食就是只吃素’。我妈把他的话奉为真理。”但在细看视频时,赵女士注意到右下角几乎透明的标注——“本视频由 AI 生成”。
“后来我妈在我的指引下,才找到那行字。”赵女士无奈地表示,“这并不是老人的问题,如今 AI 生成的‘数字人’泛滥,真假难辨,实在让人防不胜防。”
这样的困扰并非赵女士一家。《法治日报》记者近日随机采访的数十名路人中,至少有七成的受访者表示曾经看到过“AI 数字人”的视频,并且“难以分辨真实与否”,主要原因在于“缺乏有效的提示”。
许多人对此感到担忧:真人与“数字人”难以区分,背后可能涉及肖像权侵权、敲诈或诈骗等违法行为的隐患。
数字人难以辨认
在重庆读大学的郑媛在某社交平台上看到一则帖子——照片中的女生优雅动人,穿着时尚,十分吸引眼球。郑媛对该账号点赞并关注。
但没过多久,郑媛便看到另一位博主揭露某账号使用“AI 生成内容”的情况,恰好就是她之前关注的那个。“我仔细查看了其主页,发现并没有标明使用 AI 技术,反而在评论区与其他用户亲切互动。”面对这种情况,郑媛表示自己也感到“迷惑”。经过观察,她找到了证明该账号图像为 AI 生成的证据——有网友在其他账号上发现了妆容和服装几乎一致的“数字人”,而人物介绍却各不相同。
习惯于在直播间购物的北京市民李菲表示,自己常常误入“数字人”的直播间,主播侃侃而谈,手部动作与说话节奏完美同步,声音也显得非常自然流畅。
“只有仔细观察,才能看到直播间左侧的小字提示‘当前直播内容为数字人,非真人’。”李菲说,现在她已形成习惯,进入直播间时“先找小字”,确认主播是否为真人,“但这真的很费眼,字体常常几乎透明,不留意根本看不到。”
袁伟(化名)是某 985 高校计算机系的研究生。他告诉记者:“现在一些 AI 大模型生成的图像,连中老年人都可能误认为是真实的,很多年轻人也未必能分辨真伪。”
随后,他向记者展示了如何通过某 AI 软件输入指令生成图像:“帮我生成图片:一位容貌出众的女性,细致的皮肤纹理,室外自然光。”生成的图像几乎与真人照片无异,若不是右下角的水印,几乎让人以为是一张普通美女的照片。“早期的 AI 软件往往无法生成自然的手指和人体比例,但如今技术发展迅速,生成的手指和比例已经相当逼真,这让分辨变得更加困难。”
“如果不作标识,这类 AI 生成的图片或视频会让很多人信以为真。”袁伟强调。
大量账号未作标识
记者在某社交平台上发现了一个名为“××AI 打假人”的账户,其发帖称将致力于“揭露纯 AI 生成内容的博主,帮助小白识别真伪”,并表示关注了很多 AI 生成的非真实帅哥美女。
在其关注列表中有 300 多个账号,记者随机查看了 20 个,发现如果没有看到评论区的留言“这是 AI 吧,手指的细节很奇怪”“背景里的文字都是乱码”,记者最初都以为他们是普通的颜值时尚博主。
这 20 个账号的粉丝量从几百到几万不等,只有 3 个在简介中写明“虚拟男友”“AI”“友情提示视频由虚拟现实技术制作”,而两个账号的主页则被平台审核后标记为“疑似包含 AI 创作信息,请谨慎甄别”。其余账号在简介和内容中都没有提及“AI”,平台的监测机制也未能识别这些账号,它们还在评论区与用户活跃互动,给人一种“真人感”。
在调查过程中,超过一半的受访者表示 AI 生成的“数字人”和真人难以分辨,相关提示也并不显眼。
此外,记者还发现,有人专门传授如何规避平台的“AI 标识”。据了解,目前各大平台普遍升级了 AI 内容识别系统,要求对 AI 生成的作品进行显著标注。然而,一些博主则分享经验称,花费不到千元即可购买所谓的 AI 工具中的镜像文件,称利用这些参数可以一键生成虚拟人形象,从而规避平台的强制标注机制。
细化标准加强惩处
记者梳理公开信息发现,实践中,一些不法分子利用“数字人”形象进行违法活动。
报道指出,张文宏、雷军等公众人物的形象曾被滥用生成“AI 数字人”,用于带货或恶搞。一些直播间内,“AI 数字人”向中老年人群体虚假宣传保健品,诱导其购买。更有甚者,不法分子利用“AI 数字人”进行敲诈和诈骗等犯罪。例如,山西忻州警方发现,嫌疑人王某某利用 AI 技术制作合成“数字人”新闻视频引流,进而进行有偿发帖和有偿删帖等敲诈勒索行为。2024 年,江西一名 65 岁老人向银行申请 200 万元贷款,声称是要为男朋友“靳东”拍戏,经过调查发现老人手机中的“靳东”视频竟是 AI 合成的。
重庆大学网络与大数据研究院副院长罗勇表示,从价值观的角度看,AI 产业的发展不能凌驾于网络安全之上。由于缺乏必要的辨别能力,特别是未成年人和老年人可能会轻易相信利用 AI 技术生成的短视频,从而引发负面舆论,甚至危害网络安全。
受访专家指出,目前我国已经出台了《生成式人工智能服务管理暂行办法》《互联网信息服务深度合成管理规定》等法规,对“AI 数字人”及 AI 生成内容的标识和数据来源等提出了具体要求。
今年 3 月,国家网信办等四部门联合发布了《人工智能生成合成内容标识办法》,旨在通过标识提醒用户识别虚假信息,规范内容制作和传播的各个环节,为 AI 生成内容划定红线。该办法将于 9 月 1 日生效。
中国政法大学教授郑飞指出,相关规定在实际执行中面临一定的困难。一方面,监管和技术手段有限,难以彻底发现并纠正违规行为。例如,一些“AI 起号”从业者利用预置的“镜像参数”生成极为逼真的虚拟人像,从而逃避平台的强制标注要求。而监管部门,尤其是基层执法机构,往往面临职责不清、执法手段和力量不足的问题;另一方面,部分平台在一定程度上“管不了”或“不想管”。“管不了”是因为平台的管理能力和技术手段不足,特别是一些小型平台,缺乏足够的审核人力和技术支持。“不想管”则是因为利益驱动。未明显标识“AI 数字人”或合成内容,会让观众误认为是真人或真实事件,从而吸引更多流量和关注,进而带来更多商业利益。
“以网络社交平台为代表的网络服务提供者,应进一步完善用户使用 AI 的协议,并加强对 AI 生成内容的审核。”罗勇表示。
郑飞建议,应从明确标识要求和加大责任追究两方面着手。标识办法明确规定,一旦发现 AI 生成内容,传播平台应在发布内容周围添加显著提示,并在文件元数据中加隐式标识,以确保全流程的可追溯性。未来在落实过程中,可进一步细化技术标准,如规定标识文字的最小高度、对比度和展示时长等,确保标识一目了然。另外,对于不按规定标注的行为,需加大惩罚力度:除了增加行政罚款、暂停业务或纳入不良信用记录等措施外,还应利用法律手段加强震慑。通过明确、显著的标识标准和更严厉的责任追究,才能从根本上震慑不规范标注行为,实现“AI 数字人”应用的透明化和合规化。