共计 1354 个字符,预计需要花费 4 分钟才能阅读完成。
在美国东部时间 9 月 16 日,著名人工智能公司 OpenAI 宣布,他们将推出一款专为 18 岁以下用户设计的 ChatGPT 版本,该版本将具备家长控制功能,并通过年龄验证技术限制未成年人访问成人版平台。
资料图 图源:图虫创意
青少年版 ChatGPT 推出,家长可关联账户
在其声明中,OpenAI 指出,正在开发技术以识别用户是否年满 18 岁。如果系统识别出用户未满 18 岁,将自动引导其进入青少年版 ChatGPT,该版本设有特定使用规则,诸如禁止访问色情内容等。
此外,OpenAI 还表示,如果无法确认用户年龄,系统将默认用户使用青少年版 ChatGPT。只有在用户能够证明其年龄超过 18 岁时,才可解锁成年版的使用权限。
未来,ChatGPT 还将允许未成年用户的父母将他们的账户与孩子的账户进行关联,以便于实施更为有效的监管。一旦账户完成关联,家长便可以调整 ChatGPT 的回答方式,并在系统检测到孩子经历极大痛苦时接收警报。同时,家长们还可以为青少年用户设定无法使用 ChatGPT 的时段。
然而,值得注意的是,父母与孩子账户的关联不是强制性的,而是需要通过父母的邀请,让孩子同意后才能实施。
OpenAI 的首席执行官奥尔特曼在其最新的博客文章中阐述了这一决策,强调:“我们将在青少年隐私与自由之上,优先考虑安全性;这是项新兴的强大技术,我们深信未成年人需要得到充分的保护。”
9 月 4 日,奥尔特曼在白宫出席有关人工智能教育的特别工作组会议
值得关注的是,OpenAI 此次声明的背景是美国国会即将举行一场关于人工智能聊天机器人的潜在威胁的听证会。
72% 美国青少年利用 AI 机器人进行“陪伴”
近期,越来越多的研究对 ChatGPT 可能对青少年心理健康造成的威胁提出警告,并且 OpenAI 也面临着多起相关的诉讼。这些警告和诉讼指出,ChatGPT 可能鼓励青少年自杀或谋杀,并且未能及时对不当内容进行干预。
2024 年,一名 16 岁的加州少年自杀身亡,其父母向 OpenAI 提起诉讼,认为该公司应为其儿子的死承担责任。佛罗里达州一位母亲也起诉了另一款人工智能机器人 Character.AI,称其 14 岁的儿子因与该聊天机器人建立情感联系而自杀。今年 8 月,一位 29 岁女孩的母亲在《纽约时报》上发表专栏文章,讲述她的女儿曾请求 ChatGPT 帮她撰写遗书,尽管 ChatGPT 并未鼓励她自杀,却也没有对她的自杀倾向发出警告。
资料图 图源:图虫创意
此外,还有报道称,一名 56 岁男子因 ChatGPT 刺激了其偏执妄想,最终杀害了自己的母亲并自杀。
今年 7 月,一项美国新调查显示,约 72% 的青少年表示他们使用人工智能机器人作为“陪伴”,其中超过一半的调查者每月至少使用几次,而 80% 拥有人工智能伴侣的用户则表示,他们更愿意花时间与现实中的朋友相处。
美国联邦贸易委员会在 9 月 11 日已宣布对聊天机器人的安全性进行调查,要求 OpenAI、Meta、甲骨文等几家公司提供有关青少年和儿童使用聊天机器人时可能产生的负面影响的信息。
该委员会认为,这些聊天机器人常常模仿人类行为,可能导致年轻用户与其建立情感联系,进而带来潜在风险。与此同时,随着监管机构的行动,美国的人工智能企业越来越多地将“陪伴”功能作为其聊天机器人服务的主要卖点。
红星新闻记者 范旭 实习记者 卿滢
编辑 郭宇
(下载红星新闻,报料有奖!)