唱衰专家已经流行了一段时间了。早在2018年,汤姆·尼科尔斯(tom nichols)就写了《专家之死》(the death of expertise),原因是人们现在比以往任何时候都能接触到更多的信息,也有机会接受各式各样的教育,并且技术也助长了人们的知识自信以及对知识平等的信仰。比如,只需快速百度一下或翻查一遍网络百科,普通人就会认为自己与医生的信息相等,与教授的智力相当。
所有的声音,即使是最可笑的声音,都要求得到同等的重视;任何与此相反的主张都会被视为不民主的精英主义而痛遭驳斥。如今,chatgpt来了,更被视为“专家终结者”——它可以在许多知识领域给出详细的回应和清晰的答案,迫使人们对人工智能时代的教书、学习和测试进行重新思考。
在教育领域,chatgpt被描述为“游戏规则改变者”,给中学和大学都带来挑战。《大西洋月刊》先是哀叹“高中英语已死”,继而提出“大学论文已亡”。而中学和大学此时此刻则忙于禁止chatgpt,将学生对它的使用视同为潜在抄袭。专家们(如果还存在的话)担心使用该技术做作业的学生会变得依赖人工智能生成的答案,而无法获得他们需要的知识和技能。
其实,能产生流畅连贯的文章的软件并不新鲜。chatgpt的前身,生成式预训练语言模型gpt-3,就可以做到这一点。两者都依靠难以想象的大量数据进行训练,以便以一种可信的方式回答问题。但chatgpt 通过输入人类“对话”数据进行了微调,这大大增加了回答的真实性和信息量。
即便如此,chatgpt背后的公司openai承认,chatgpt也可以给出完全错误的答案,并将错误的信息作为事实呈现,写出“听起来合理但不正确或无意义的答案”。它也“有时会对有害的指令做出反应或表现出有偏见的行为”。如此种种必然成为互联网上的大问题,因为许多网络平台没有必要的工具来保护自己免受人工智能生成的内容的冲击。stack overflow,一个用户可以寻求编程问题答案的网站,禁止了chatgpt制作的帖子,因为其人类版主无法处理大量看上去可信但实际上错误的回复。
尤其需要敲响警钟的是,chatgpt还努力追求一种准权威风格。它不能避免错误或偏见,但听起来却是正确的和权威的,这是真正的危险所在。人们似乎很喜欢这个机器人,也许是因为,听起来很权威的错误信息对普通人来说可能比通常的废话更有价值。但归根结底,chatgpt不知道什么是真的或假的,也并不了解这个世界。如果你问它煎蛋的食谱,它可能会做得很好,但这并不意味着它知道什么是煎蛋。
图片
人工智能并没有人类意识:它不清楚自己在做什么;它无法说出自己是如何或为什么产生反应的;它没有掌握人类的经验。所以,使用chatgpt的第一法则是,你绝对不应该相信它。你需要检查它所说的一切。openai的研究人员警告说,它需要人类的警惕和监督。
具有讽刺意味的是,虽然生成式人工智能可能降低了自称专家的门槛,但它却提高了真正成为专家的门槛。chatgpt的复制/粘贴可以帮助非专家听起来令人印象深刻,即使他们甚至并不精通某一主题。但实际运行的效果会是,听起来令人印象深刻的非专家之间的竞争将加剧。
同时,要证明自己是一个真正的专家,很可能需要特殊水平的人类专业知识。例如,作为一个真正的人类专家,需要比人工智能所依赖的“群众智慧”更了解相关主题。人类专家必须能够发现“众包”知识中的错误、偏见和虚假参考资料,产生比人工智能所生成的东西更准确和有用的结果。他们还必须能够将知识用于实践。
最关键的是,人类创造者要对自己的作品负责,而人工智能则不然。为防止人类自动化偏见——即过度依赖自动化系统,强调问责制将变得前所未有地重要。