当你满意地看着ChatGPT生成的答案,自信地觉得表现出色时,可能已经陷入了一种新型认知陷阱——AI诱发的过度自信。
当你满意地看着ChatGPT生成的答案,自信地觉得表现出色时,可能已经陷入了一种新型认知陷阱——AI诱发的过度自信。阿尔托大学最新研究揭示,使用AI工具可能使我们普遍高估自己的认知能力。
更令人担忧的是,自认为具备AI素养的人群在这一问题上表现得更为过度自信。这项研究为AI蓬勃发展的今天敲响了警钟。
01 达克效应反转:AI素养高者更自信
传统的达克效应认为,能力差的人通常会高估自己的技能水平,而能力较强的人反而会低估自己。然而,阿尔托大学的研究发现,在AI面前,这一经典心理效应并不成立。
研究团队设计了两个实验,约500名参与者使用AI完成法律学校入学考试中的逻辑推理任务。
结果显示,无论使用者的AI素养如何,所有用户在使用AI时都表现出一个共同点:普遍高估自己的表现。
“我们发现,当涉及AI时,达克效应消失了。更令人惊讶的是,更高的AI素养带来更多的过度自信,”研究负责人Robin Welsch教授指出。
02 浅层互动:盲目信任的温床
研究数据揭示了导致这种过度自信的操作原因:大多数用户与AI的互动停留在浅层次。
参与者很少对每个问题多次提示AI,通常只是复制问题,将其输入AI系统,然后就对AI的解决方案感到满意,不再检查或质疑。
Welsch教授解释说:“我们观察了参与者是否真正与AI系统一起反思,发现人们只是认为AI会为他们解决问题。通常只有一次交互来获取结果,这意味着用户盲目信任系统。”
这种认知卸载现象——将所有处理工作交给AI——可能限制了用户校准信心和准确自我监控所需的线索。
03 神经证据:AI如何重塑大脑
不仅是行为学研究,神经科学数据也提供了支持证据。麻省理工学院媒体实验室进行的一项开创性研究,通过脑扫描评估了大语言模型对人类认知的影响。
研究将54名18-39岁的参与者分为三组:ChatGPT组、Google搜索组和纯大脑组。所有参与者都佩戴高密度脑电图设备,实时监测32个大脑区域的活动。
结果令人震惊:纯大脑组的α波段神经连接高达79个,而ChatGPT组的神经连接从79骤降至42个,降幅高达47%。
更触目惊心的是行为证据。当被要求复述几分钟前刚“完成”的文章内容时,83.3%的ChatGPT用户无法回忆起任何有效信息,而纯大脑组仅有11.1%的人出现类似问题。
04 错误率惊人:AI信息的不可靠性
与此同时,BBC与欧洲广播联盟发布的一份联合研究报告显示,AI在回答新闻相关问题时的表现远未达到可靠水平。
这项大规模研究邀请了来自18个国家、14种语言的22家公共媒体机构,对ChatGPT、Copilot、Gemini和Perplexity四款主流AI助手进行了系统评估。
结果显示,45%的AI回答存在重大错误,如果算上细微问题,出错比例高达81%。
研究指出,最普遍的错误出现在信息来源上。约三分之一的回答存在严重的引用问题——要么提供了与内容无关的来源,要么给出错误链接,甚至直接编造出处。

05 解决方案:从认知卸载到思维倍增
面对这些挑战,研究者认为解决方案不是拒绝AI,而是重构使用方式。
关键在于保持认知主导权,将AI作为“思维倍增器”而非替代品。
阿尔托大学的研究团队建议,AI系统可以主动要求用户解释他们的推理过程,迫使用户更深入地与AI互动,面对自己的知识幻觉。
“AI素养如今确实非常重要,因此这是一个非常显著的效果。AI素养可能很技术性,但它并没有真正帮助人们与AI系统进行富有成效的互动,”Welsch教授评论道。
麻省理工学院的实验也发现,原本自主写作的人使用AI优化内容时,神经连接反而增强,因为他们将AI作为辅助工具而非替代品。
随着AI技术不断迭代,人类与AI的关系日益复杂。阿尔托大学的研究团队建议,AI系统应主动要求用户解释自己的推理过程,迫使用户更深入地与AI互动,面对自己的“知识幻觉”。
神经科学家警告,每次用AI走捷径,都在用未来的思考能力支付利息。这种认知债务会在面临复杂问题时突然显现,就像一块忘记如何工作的肌肉。
当我们庆祝AI带来的效率革命时,或许该思考:人类文明最珍贵的资产,究竟是产出内容的速度,还是那颗能感受文字灵魂、在思考中颤栗的大脑?

关注 “悠AI” 更多干货技巧行业动态