共计 746 个字符,预计需要花费 2 分钟才能阅读完成。
作者 | 钱沛杉
从 24 小时不间断带货的“数字人主播”到电商平台大量生成的“AI 名人推荐”,再到影视中“复生”已故明星的技术,以及社交网络上层出不穷的换脸恶搞视频,“AI 数字人”的滥用现象已经从娱乐圈扩展到了商业和社会活动领域。当虚拟技术与现实之间的伦理界限被打破,如何加强监管成为当今亟待解决的问题。
一方面,“AI 数字人”技术的门槛和成本都相对较低,另一方面,相关责任的不清晰使得“真人”受害者在维权时陷入困境,数字人侵犯权益的事件频频出现,这也暴露出当前治理方式的滞后。
从法律视角来看,现有的著作权法对 AI 创作内容的界定相对模糊,而民法典对于“深度伪造”侵权的规制尚未形成完善的体系。此外,《生成式人工智能服务管理暂行办法》大多停留在原则性框架上……在深度伪造技术迅速发展的背景下,法律法规在技术认定、侵权主体追溯、跨国责任追究等方面依然需要不断更新和完善。由于开发者、平台和用户之间的责任体系尚未建立,中小型平台往往因成本压力而对伪造内容选择性失察,受害者常常面临侵权主体隐蔽与跨国追责的困难,这使得维权变得更加复杂。
为了解决治理难题,应该避免单纯依赖技术对抗技术的思维方式,而应建立技术、法律与伦理相辅相成的治理体系。通过数字身份认证和内容追溯等手段,推动“AI 数字人”滥用问题的治理从事后追责转向事前预防;同时,形成覆盖算法开发者、内容分发者和终端用户的全链条责任共同体,从而增强各方的责任感。
技术的进步不应以牺牲人的主体性为代价。只有充分发挥与技术发展相匹配的治理智慧,才能确保人工智能技术始终服务于人类文明的进步。■