共计 2855 个字符,预计需要花费 8 分钟才能阅读完成。
“西红柿和黄瓜不宜同食!”电话那边,母亲滔滔不绝地解释,提到黄瓜中的分解酶会损害维生素 C 的吸收,轻则影响西红柿的营养,重则可能引发腹泻和其他肠胃不适。听到这些,赵女士却感到困惑。
随后,母亲发来了一个视频。赵女士回忆道:“那位头发花白、身穿白大褂的‘医生’在视频中侃侃而谈养生之道,甚至声称‘清淡饮食就是完全素食,不吃肉’。我母亲对此深信不疑。”然而,仔细观察后,赵女士在视频右下角看到了几乎透明的字样——“本视频由 AI 辅助生成”。
“后来,我妈戴上老花镜,在我的指导下费了好一会儿才发现那行字。”赵女士无奈地表示,“这并不是老人的错,现在 AI 生成的‘数字人’屡见不鲜,真假难辨,实在让人防不胜防。”
其实,面对此类问题的并非赵女士一家。《法治日报》的记者近期随机采访了几十位路人,发现至少有 70% 的受访者表示曾看到过“AI 数字人”视频,且大多数人都无法分辨其真假,主要原因是“缺乏有效的提示”。
许多人对此表示担忧:面对真人与“数字人”难以区分的局面,背后可能隐藏着肖像权侵犯、敲诈和诈骗等违法风险。
数字人辨别困难
在重庆上大学的郑媛在某社交平台上看到一则帖子,帖子中的女生外形温婉动人,穿着时尚,令她十分关注并点赞。然而不久后,郑媛看到另一位博主揭露了“AI 生成人”账号的真相,恰好就是她之前关注的那个账号。郑媛表示:“我翻阅了那个女生的主页,发现她并没有说明使用 AI 技术,评论区里她还与其他用户热情互动。”对此,郑媛感到非常困惑。经过观察一个多星期,她终于找到证据,证明该账户的图片是 AI 生成的——在其他账号上,有网友发现了与之几乎相同的“数字人”,却有不同的人物介绍。
习惯在直播间购物的李菲则分享了她的经历:“我经常误入‘数字人’的直播间,她们滔滔不绝地介绍商品,手部动作随着说话节奏不断变化,声音也很自然流畅。”
“只有仔细查看才能发现直播间左侧的一行小字,写着‘现直播内容为数字人直播,非真人直播’。”李菲表示,虽然她现在习惯进直播间前先找小字确认主播身份,但“这确实很费眼,不是隐蔽在角落里,就是字体几乎透明,不留意根本看不到。”
袁伟(化名)是某 985 高校计算机系的研究生,他告诉记者:“如今,一些 AI 大模型生成的图像,很多中老年人甚至年轻人都未必能分辨其真假。”
随后,他演示了一个 AI 软件,输入指令“生成一位容貌姣好的女性,细腻的皮肤纹理,室外自然光”,结果生成的图片与真实照片几乎无异,若不是右下角的水印,只会让人认为是一张普通美女的照片。“早期的 AI 软件在手指和人体比例上生成效果不佳,但现在技术飞速进步,生成的效果更加接近真实,辨别的难度随之增加。”
“如果这些 AI 生成的图片或视频没有标识,很多人很可能会轻易信以为真。”袁伟说道。
大量账号缺乏标识
记者在某社交平台上发现一个名为“××AI 打假人”的账号,该账号表示将致力于“揭穿纯 AI 生成的内容博主,帮助用户识别真假”,并表示关注了很多 AI 生成的虚拟帅哥美女。
在其关注列表中有 300 多个账号,记者随机选取了 20 个浏览,发现如果没有看到评论区的“这是 AI 吧,手指细节很奇怪”“背景文字都是乱码”等留言,记者最初只认为这些账号是普通的颜值时尚博主。
这 20 个账号的粉丝量从几百到几万不等,只有 3 个在简介中提到“虚拟男友”“AI”“友情提示视频由虚拟现实技术制作”,另外两个账号的内容经过平台审核后被标记为“疑似包含 AI 创作信息,请谨慎甄别”。其余账号在简介和内容中完全没有提到“AI”字样,平台监测机制也未能识别,且这些账号在评论区与用户互动,显得更有“真人感”。
在调查过程中,超过一半的受访者向记者表示 AI 生成的“数字人”和真人难以区分,相关提示也不够显眼。
此外,记者还发现有人专门教人如何规避平台的“AI 打标”。据了解,目前各平台已经普遍升级了 AI 内容识别系统,要求对 AI 生成的作品进行明确标注。但调查中,有博主分享经验称只需花费不到千元即可购买所谓的 AI 工具中预配置的镜像文件,利用这些镜像参数一键生成的虚拟形象能够以假乱真,最大限度规避平台的 AI 内容强制标注机制。
细化标准与加大惩处
记者梳理公开信息发现,一些有心人士利用“数字人”形象从事违法活动。
据报道,张文宏、雷军等公众人物的形象曾被用于生成“AI 数字人”,用于带货或搞笑。一些直播间内,“AI 数字人”向中老年群体虚假宣传保健品,诱导其购买。更有甚者,不法分子利用“AI 数字人”实施敲诈和诈骗。例如,山西忻州警方发现,犯罪嫌疑人王某某利用 AI 技术制作合成的“数字人”新闻视频引流,随后进行有偿发帖和删帖等敲诈勒索活动。2024 年,江西一名 65 岁老人到银行办理业务,声称要借款 200 万元给男朋友“靳东”拍戏,后来调查发现,老人手机里的“靳东”视频是 AI 合成的。
重庆大学网络与大数据研究院副院长罗勇认为,从价值取向来看,AI 产业的发展不能凌驾于网络安全之上。对利用 AI 技术生成的短视频,尤其是未成年人和老年人,由于缺乏必要的辨识能力,容易轻信,从而可能引发负面网络舆情,甚至影响网络安全。
据受访专家介绍,目前我国已经出台了《生成式人工智能服务管理暂行办法》《互联网信息服务深度合成管理规定》等法规,明确对“AI 数字人”和 AI 生成内容的标识、数据来源等提出具体要求。
今年 3 月,国家网信办等四部门联合发布了《人工智能生成合成内容标识办法》,通过标识提醒用户辨别虚假信息,规范内容制作和传播的各个环节,为 AI 生成内容划定了红线。该办法将于 9 月 1 日起实施。
中国政法大学教授郑飞指出,相关规定在落实过程中确实存在一些难题。一方面,监管和技术手段有限,难以彻底发现并纠正违规行为。例如,一些“AI 起号”从业者通过预置“镜像参数”生成极为逼真的虚拟人像,从而逃避平台的强制标注要求。而监管部门,特别是基层执法部门,通常面临职责不清、执法手段和力量不足的问题;另一方面,部分平台在一定程度上“管不了”也“不想管”。“管不了”是因为平台管理能力和技术手段不足,尤其是一些小型平台,缺乏足够的审核人力和技术支持;而“不想管”则是由于背后的利益驱动。未明显标识“AI 数字人”或合成内容,会导致受众误认为是真人或真实事件,从而引发更多的关注,带来更多的商业利益。
“网络社交平台等网络服务提供者在 AI 生成内容的应用场景中,应该进一步完善用户使用 AI 的协议规定,并强化对 AI 生成内容的审核。”罗勇强调。
郑飞建议,应从明确标识要求和加大责任追究两方面着手。标识办法明确要求,一旦检测到 AI 生成内容,传播平台需在发布内容周围添加显著提示标识,并在文件元数据中加隐式标识,确保全流程可追溯。在未来的落实过程中,可进一步细化技术标准,例如规定标识文字的最小高度、对比度、展示时长等,让标识更加显眼。此外,对不按规定标注的行为,应当严格处罚:除了加大行政罚款、暂停业务或纳入不良信用记录等行政措施外,还应利用法律手段加大威慑。通过明确、显著的标识标准和更严厉的责任追究,才能从根本上震慑违规不标注行为,实现“AI 数字人”应用的透明与合规。