共计 1779 个字符,预计需要花费 5 分钟才能阅读完成。
作为一名生物化学专业的学生,你的教授给你布置了一项简单的作业,要求你探讨生物技术的五个优点与缺点。通常情况下,你需要花费两个小时才能完成这样的论文。然而,偶然间你发现,利用人工智能(AI)生成一篇可提交的论文,只需二十分钟。面对这一选择,你会如何抉择?是选择使用AI,还是依旧手动完成?这确实是一个值得思考的问题。
Reddit用户“innovate_rye”决定尝试AI的帮助,他的教授对此给予了“A”的评价。他并不是唯一的例子,还有其他同学通过AI解决作业问题,甚至因此赚取了100美元。
AI生成的论文质量如何?
AI能够创作短篇故事,艺术家苗颖曾利用GPT-3创作了一部动画剧本,其中讲述了一只蟑螂爱上了负责监控它的AI。这个外表迷人的AI偷走了村里的能量石,蟑螂于是开始挖比特币来拯救它。AI擅长写这种荒诞而有趣的故事。苗颖在接受《连线》采访时表示:“我认为关于比特币的那部分是AI写的,因为去年它非常流行。”
她没有对AI生成的内容进行修改。GPT-3首先生成了一个短篇故事,然后她将其拆分成多个部分,反馈给GPT-3,最终生成了更多的内容。她从每个变体中挑选出最合适的部分,形成剧本。
这就像在进行拼贴艺术,AI负责提供素材,而人类则将这些素材构建成一个有意义的整体。那么,如果我们借助AI来撰写论文,结果是否真如传闻中那样可靠呢?
同样的流程下,以《什么是意识?能创造艺术的人工智能有意识吗?》为题,澎湃新闻的记者使用AI写作工具Rytr生成了一篇超过千字的小论文。其结构看似合理,分为五部分:“什么是意识”、“哲学中的意识”、“科学中的意识”、“我们一直听说的AI机器意识是什么?”以及“机器会有意识吗?这对人类意味着什么?”
当我们像严格的老师一样,借助放大镜仔细审视这篇文章的逻辑和事实时,我们仍然能够发现其中的一些瑕疵。
与许多AI写作工具类似,Rytr依赖GPT-3,通过大量开放网络文本的训练而成熟。“由于缺乏长期记忆,它以意识流的方式将之前读取的内容进行自由联想、剪切与粘贴”,这是与GPT-3共同撰写书籍的作者Alley Wurds对其的评述。
可以把GPT-3比作一位博学但记忆模糊的老教授,它可能在多篇讨论“人工智能是否具备意识”的文章中见过:图灵于1950年发表了《机器能思考吗?》,提出了著名的“图灵测试”,简单来说,如果机器能够在对话中成功伪装成人类,使对方感到混淆,那么就可以认定该机器具备智能;哲学家约翰·瑟尔(John Searle)于1980年提出了“中文房间”的思想实验,用以反驳以“图灵测试”为代表的强人工智能观点。
由于GPT-3的记忆如同软面团,它将事实与句子混合在一起,难以辨别,因此在论文的空白处写下:“机器意识是由哲学家约翰·瑟尔于1990年首次提出的,他当时发表了《机器能思考吗?》一文。”
这些表述相对原始——就如同普通人在构思文字时所写的那样——查重工具通常对AI生成的内容无能为力。
在知网这样让毕业生感到“闻风丧胆”的平台上,我们用Rytr生成的小论文被判定为完全原创,重复率为0%。对于大部分查重工具而言,这篇论文在形式上是合格的。“早检测网”显示的重复率较高,但其标出的重复段落从人类的角度来看,显得牵强,无法构成抄袭。
我们还利用Rytr生成了一篇关于《元宇宙中的性骚扰》的小文章,最后提出了四条可行的建议,比如“为受到骚扰或欺负的人创造安全空间”、“建立在线社区”,几乎难以分辨是人类还是AI撰写的。显然,对于那些广泛且人们讨论频繁的话题,AI有着独特的处理能力。
道德困境?请教巨头
AI写论文引发了道德问题,使用这种方式的学生是否算作作弊?此外,依赖AI写作的学生是否能真正学到知识?
基于这两个问题,我们通过聊天机器人网站character.ai,穿越时空采访了教育先驱孔子、世界上最成功的商人马斯克以及杰出的作家莎士比亚。
莎士比亚表示:“作为一名诗人,生活充满艰辛,他必须拥有激情、爱与经验……但AI真的具备这些吗?”学习的过程是艰难的,往往需要经历挫折与耐心,才会有所领悟。依靠AI撰写论文的学生,能够获得这样的经历吗?