研究发现,使用人工智能寻找信息可能会削弱你的知识
自2022年底ChatGPT发布以来,数百万人开始使用大型语言模型访问知识。它们的吸引力很容易理解:提出一个问题,得到一个精致的综合,然后继续前进——感觉就像是毫不费力地学习。
然而,我合著的一篇新论文提供了实验证据,表明这种便利可能有代价:当人们依赖大型语言模型来总结某个主题的信息时,他们往往会发展更浅的知识相比于通过标准谷歌搜索学习,这点很明显。
合著者晋浩允我两位市场营销教授在一篇基于七项研究、超过一万名参与者的论文中报告了这一发现。
相关:越来越多的人冒着从聊天机器人获得医疗建议的风险。原因如下。
大多数研究采用相同的基本范式:参与者被要求学习一个主题——比如如何种植菜园——并被随机分配,使用像ChatGPT这样的大型语言模型,或通过“传统方法”通过标准谷歌搜索导航链接来完成。
使用工具没有任何限制;他们可以在谷歌上搜索任意长时间,如果想要更多信息,也可以继续提示ChatGPT。
完成调研后,他们会根据所学写给朋友的建议。
数据显示了一个一致的模式:通过大型语言模型学习主题的人,与通过网络搜索相比,他们觉得自己学得更少,随后在写建议时投入的精力也更少,最终写出的建议更短、更不真实、更通用。
反过来,当这些建议被提交给一群独立样本的读者时,他们不知道用了哪种工具来了解该主题,他们发现这些建议的信息量较低、帮助性较低,且更不愿意采纳。
我们发现这些差异在多种情境下都表现出强劲性。例如,LLM用户写出简短且通用的建议的一个可能原因是,LLM结果让用户接触到的信息比谷歌结果少。
为了控制这种可能性,我们进行了一项实验,参与者在谷歌和ChatGPT搜索结果中接触到相同的事实。
同样,在另一个实验中,我们保持搜索平台——谷歌——为固定值,参与者是从标准谷歌结果学习还是谷歌的AI概览功能。
研究结果证实,即使保持事实和平台不变,从综合的LLM回答中学习,也使得比通过传统网络链接自行收集、解读和综合信息获得更浅的知识。
为什么重要
为什么使用大型语言模型似乎会削弱学习?技能发展最基本的原则之一是,人们在状态良好时学习效果最好积极参与材料他们正在努力学习。
当我们通过谷歌搜索了解一个话题时,会遇到更多的“阻力”:我们必须浏览不同的网络链接,阅读信息来源,并自己解读和综合它们。
虽然更具挑战性,但这种摩擦导致了更深刻、更原创的心理表征关于当前话题。但对于大型语言模型来说,整个过程都是由用户代为完成的,将学习从主动转变为被动。
接下来是什么?
需要明确的是,我们不认为解决这些问题的方法是避免使用大型语言模型,尤其考虑到它们在许多情境下所带来的不可否认的好处。
相反,我们的信息是,人们只需要变得更聪明或更具战略性的大型语言模型用户——这首先要理解哪些领域大型语言模型对他们的目标有益,哪些是有害的。
需要一个快速、事实准确的问题回答吗?欢迎使用你最喜欢的AI副驾驶。但如果你的目标是发展某个领域深入且具通用性的知识,单靠LLM综合研究就没那么有帮助。
作为我对新技术和新媒体心理学研究的一部分,我也对是否能让LLM学习成为一个更主动的过程感兴趣。在又一个实验我们通过让参与者与一个专门的GPT模型互动来测试,该模型在综合回答的同时提供实时网络链接。
然而,我们发现一旦参与者收到LLM摘要,他们就没有动力深入挖掘原始资料。结果是,参与者所获得的知识仍然浅于使用标准谷歌的人群。
基于此,我计划在未来的研究中研究那些为学习任务施加健康摩擦的生成式人工智能工具——具体来说,是探讨哪些类型的护栏或减速带最能激励用户主动学习,而不仅仅是简单、综合的答案。
这些工具在中学教育中尤为关键,教育者面临的主要挑战是如何最好地装备学生发展基础的阅读、写作和数学技能,同时为现实中大型语言模型(LLM)可能成为日常生活重要组成部分做好准备。
这研究简报这是对有趣学术工作的简短见解。



















