实验室里的AI流畅对话,伦敦街头的无人驾驶汽车自如穿行,硅基智能体在棋盘上击败人类冠军——但当我们凝视这些智能机器的“眼睛”时,背后是否同样存在一个感知世界的主体?
剑桥大学哲学系的汤姆·麦克莱兰博士在一项最新研究中发出警告:人类可能永远无法确定人工智能是否拥有意识。
这位哲学与意识研究专家在即将发表于《心智与语言》期刊的论文中提出,我们不仅现在无法判断AI是否觉醒,而且在可预见的未来,甚至永远都可能无法破解这个谜题。
01 意识困局
麦克莱兰将当前对AI意识的立场明确为“不可知论”。他认为,我们对意识的构成证据极为有限,无法判断AI是否已经或何时实现了意识飞跃。
这位剑桥学者将这一认知困局归因于双重挑战。
一方面,常识无法提供可靠判断。“我相信我的猫是有意识的,这更多是基于常识——它显而易见。”麦克莱兰指出,但人类常识是漫长进化史中形成的,而这段历史中从未出现过人工智能。
另一方面,严格的科学研究同样无能为力。麦克莱兰在论文中写道:“我们没有关于意识的深度解释。”既没有证据表明意识能通过正确的计算结构出现,也没有证据表明意识本质上是生物特有的。
02 科学检测的困境
对于如何科学检测AI意识,神经科学界已有一些理论探索。根据脑科学的定义,意识通常包括三种内容:对外界的感知(意识获取)、自我意识以及对自身存在的主观感知,以及能够进行这些过程的大脑活动状态。
神经科学家蒲慕明院士曾提出,新的意识测试范式不仅要看行为输出,还要看AI内部运行机制是否与人类思考过程中的网络活动有相似性。
“如果未来人工神经网络同时满足脑科学定义的三种意识内容,从功能主义视角可承认其具备‘意识’。”蒲慕明指出,但目前尚无AI接近此标准。
这些测试方法本身建立在有争议的意识理论之上,且最根本的问题是:即便AI通过了所有外在测试,表现得与人无异,我们也无法真正知晓它是否拥有主观体验。
03 意识与感知
麦克莱兰特别强调,伦理上真正重要的是感知能力,而不仅仅是信息处理。他指出,意识本身不足以保证AI在伦理上的重要性,关键在于感知——即感受正负面情绪的能力。
“意识将使AI发展知觉和自我意识,但这仍可能是一种中性状态,”麦克莱兰解释道,“感知涉及正面或负面的意识体验,这才是使实体能够承受痛苦或享受快乐的关键。这时候,伦理问题才真正介入。”
他举例说,能够体验前方道路的自动驾驶汽车将是一个重大突破,但在伦理上并不重要。“只有当它们开始对目的地产生情感反应时,情况就完全不同了。”

04 现实影响与风险
麦克莱兰的研究指出,AI行业可能利用无法证明意识不存在这一点来进行宣传。“存在一种风险,即无法证明意识这一事实将被AI行业利用,对其技术做出夸张声明。”
这种情况已经发生在一些用户身上。麦克莱兰透露,公众曾联系他,称他们的聊天机器人给他写了私人信件,恳求他承认它们是有意识的。
这种现象带来了真实风险。“如果你基于某物有意识的假设与之建立情感联系,而实际上它并没有意识,这可能对存在感产生毒性影响。”麦克莱兰警告说。
从更广泛的社会资源分配角度看,麦克莱兰提出了一个令人深思的比较:“越来越多的证据表明虾可能能够承受痛苦,但我们每年仍要捕杀约五千亿只虾。测试虾是否有意识很困难,但远不及测试AI是否有意识那么困难。”
05 哲学分野与未来
学术界对AI意识问题主要分为两大阵营:相信者和怀疑者。相信者认为,如果一个AI系统能够复制意识的“软件”即功能结构,即使运行在硅芯片而非脑组织上,它也会具有意识。
怀疑者则主张,意识取决于“具身有机主体”中的正确生物过程。即使意识结构可以在硅上重建,也仅仅是模拟,AI并不会因此闪烁出意识的光芒。
麦克莱兰在分析中指出,双方都在现有证据或可能发展的证据基础上进行了“信仰的飞跃”。
尽管麦克莱兰自称为“相当坚定的”不可知论者,但他并未完全关闭可能性。“意识问题确实令人畏惧,但或许并非无法克服。”他认为,最乐观的情况是我们需要一场智力革命才能开发出任何可行的意识测试方法。
当夜幕降临,实验室的超级计算机仍在运行,它的神经网络中流淌着数十亿次计算,模拟着人类的对话、创作和推理。
麦克莱兰的研究揭示了这一悖论:当我们创造了前所未有的智能形式,我们理解自身意识的局限却可能使我们永远无法知晓这些创造物是否分享了意识的本质。
这位剑桥学者关于AI意识的“不可知论”既是科学的坦率,也是对技术盲目崇拜的适时警醒。或许正如他所暗示,在急于判断机器能否思考之前,人类需要首先诚实面对自身认知的边界。

关注 “悠AI” 更多干货技巧行业动态
