共计 2866 个字符,预计需要花费 8 分钟才能阅读完成。
“西红柿和黄瓜不宜同食!黄瓜内的分解酶会影响维生素 C 的吸收,严重的话还可能导致腹泻、肠胃不适甚至食物中毒。”电话那头,母亲理直气壮地说,而此时赵女士却感到非常困惑。
随后,母亲发来了一段视频。赵女士回忆道:“视频中一位满头白发、穿着白大褂的‘医生’滔滔不绝地分享‘养生秘诀’,甚至声称‘清淡饮食就是完全素食,绝不吃肉’。我妈把他的建议当作金科玉律。”然而,赵女士仔细一看,发现视频右下角有一行几乎透明的字样——“本视频由 AI 生成”。
“后来,我妈在我的帮助下,带着老花镜才找到了那行字。”赵女士无奈地表示,“这也不能全怪老人,如今 AI 生成的‘数字人’层出不穷,真假难辨,实在让人防不胜防。”
这种困扰并非赵女士一家所独有。《法治日报》的记者最近随机采访了数十位路人,结果显示至少七成的受访者表示曾见过“AI 数字人”视频,并且“难以判断究竟是真人还是‘数字人’”,主要原因是“缺乏有效的提示”。
很多人对此感到忧虑:真人和“数字人”难以区分,背后可能隐藏着肖像权侵权、敲诈和诈骗等违法风险。
辨别数字人的难度
在重庆上大学的郑媛在浏览某社交平台时,看到一则帖子——照片中的女生温柔可人,穿着时尚,十分引人注目。郑媛随即点赞并关注了这个账号。
然而不久后,她看到另一位博主揭露用“AI 生成人”创建的账号,正是她之前关注的那个。“我仔细查看了那个女生的主页,她并没有标明使用 AI 技术,还在评论区与其他用户亲切互动。”面对这样的情况,郑媛表示自己也感到“困惑”。经过一周的观察,她找到了证据,发现该账号的图片实际上是 AI 生成的——有网友在其他账号上发现了几乎一模一样的“数字人”,但介绍却完全不同。
习惯在直播间购物的北京市民李菲表示,她经常误入“数字人”的直播间,“数字人”主播声情并茂地介绍商品,手部动作随着语言节奏不断变化,声音也显得流畅自然。
“只有仔细观察才会看到直播间左侧一行小字‘当前直播内容为数字人直播,非真人直播’。”李菲说,如今她习惯先寻找这些小字来确认主播是否为真人,“但这真的很费眼,很多时候字小得几乎看不见。”
袁伟(化名),某 985 高校的计算机研究生,告诉记者:“如今一些 AI 生成的图像,连中老年人都难以分辨真假,很多年轻人也未必能看出。”
他为记者演示了某 AI 软件如何生成图片,只需输入“生成一位容貌出众的女性,细腻的肤质,室外自然光”,生成的图片与真人照片几乎无差别,若不是右下角的水印,根本让人难以分辨。“早期的 AI 软件在生成手指和人体比例方面存在问题,但现在技术已经有了很大进步,分辨的难度加大。”
“如果这些 AI 生成的图片或视频没有标识,很多人都会信以为真。”袁伟指出。
缺乏标识的账号
记者在某社交平台上注意到一个名为“××AI 打假人”的账号,其发帖称要“揭露纯 AI 生成的内容博主,帮助用户识别真伪”,并表示关注了许多 AI 生成的非真实帅哥美女。
在其关注列表中,有 300 多个账号,记者随机选择 20 个进行浏览,发现如果没有评论区的“这是 AI 吧,手指的细节很奇怪”“背景里的文字都是乱码”等留言,第一反应只会认为他们是普通的时尚博主。
这 20 个账号的粉丝量从几百到几万不等,仅有 3 个在简介中提到“虚拟男友”“AI”“友情提示视频由虚拟现实技术制作”,其中两个账号的内容经过平台审核后被标注为“疑似包含 AI 创作信息,请谨慎甄别”。其余账号则完全没有提及“AI”字眼,平台的监测机制也未能识别,这些账号还在评论区与其他用户热络互动,制造出更强的“真人感”。
在调查过程中,超过一半的受访者表示 AI 生成的“数字人”与真人难以分辨,相关的提示也不够明显。
此外,记者发现有人专门教其他人如何规避平台的“AI 标识”。据了解,目前各个平台普遍升级了 AI 内容识别系统,要求对 AI 生成的内容进行显著标注。但在调查中,有博主透露,只需花费不到千元就能购买某些 AI 工具中预配置的镜像文件,利用这些镜像参数一键生成的虚拟人形象可以以假乱真,最大限度规避平台的强制标注机制。
细化标准与加大惩处
记者梳理相关信息发现,一些人利用“数字人”形象进行不法活动。
报道称,张文宏、雷军等公众人物的形象曾被用来生成“AI 数字人”,用于带货或恶搞。在某些直播间,“AI 数字人”向中老年人群体虚假宣传保健品,诱导购买。更有甚者,一些不法分子利用“AI 数字人”实施敲诈、诈骗等犯罪行为。例如,山西忻州警方发现,犯罪嫌疑人王某某利用 AI 技术制作合成的“数字人”新闻视频进行引流,进而进行有偿发帖和删帖等敲诈活动。2024 年,江西一名 65 岁老人到银行办理业务时,声称要贷款 200 万元给男朋友“靳东”拍戏,经过调查,发现老人手机里的“靳东”视频是 AI 合成的。
重庆大学网络与大数据研究院副院长罗勇认为,从价值取向来看,AI 产业发展不应凌驾于网络安全之上。网络用户,尤其是未成年人和老年人,因缺乏必要的辨别能力,往往会对 AI 生成的内容深信不疑,从而可能引发负面网络舆情,甚至对网络安全造成威胁。
据受访专家介绍,目前我国已出台《生成式人工智能服务管理暂行办法》《互联网信息服务深度合成管理规定》等法规,对“AI 数字人”及 AI 生成内容的标识、数据来源等进行了明确要求。
今年 3 月,国家网信办等四部门联合发布《人工智能生成合成内容标识办法》(以下简称标识办法),通过标识提醒用户辨别虚假信息,规范内容制作和传播过程中的标识行为,为 AI 生成内容的规范化划定了红线。该办法将于 9 月 1 日起实施。
中国政法大学教授郑飞指出,相关规定在实施过程中存在一定的难度。一方面是监管和技术手段有限,难以彻底发现并纠正违规行为。例如,一些“AI 起号”从业者通过预设的“镜像参数”生成极为逼真的虚拟人像,从而避开平台的强制标注要求。而监管部门,尤其是基层执法机构,常常面临职责不清、执法手段不足的问题;另一方面是部分平台在一定程度上“管不了”或“不愿管”。“管不了”是因为平台的管理能力和技术手段不足,尤其是一些小型平台,缺乏足够的审核人手和技术支持。“不愿管”则是由于利益驱动。未明显标识“AI 数字人”或合成内容,会让受众误以为是真人或真实事件,从而更容易引发兴趣和好奇,吸引更多流量,进而带来商业利益。
“以网络社交平台为代表的网络服务提供者,在 AI 生成内容的应用场景中,应进一步完善用户使用 AI 的协议,并加强对 AI 生成内容的审核。”罗勇表示。
郑飞建议,从明确标识要求和加大责任追究两方面着手。标识办法明确要求,一旦检测到 AI 生成内容,传播平台需在发布内容周围添加显著的提示标识,并在文件元数据中加入隐性标识,以确保全流程可追溯。在未来的落实过程中,可进一步细化技术标准,比如规定标识文字的最小高度、对比度、展示时长等,使标识更加醒目。另外,对于不按规定进行标注的行为,应给予严厉处罚:除了增加行政罚款、暂停业务或纳入不良信用记录等行政措施外,还应通过法律手段加大威慑。只有通过明确、显著的标识标准和更严格的责任追究,才能从根本上震慑违规不标注行为,实现“AI 数字人”应用的透明化和合规化。
(法治日报记者赵丽、实习生宋昕怡)