大家好,这里是最佳拍档,我是大飞
今天我们再来聊一个充满争议的话题
那就是机器能否真正的拥有意识?
又或者说
什么样的机器才能产生意识?
最近
意识领域的权威专家阿尼尔·塞斯Anil Seth教授
在他的一篇论文中提出
尽管技术进步迅速
但是要想实现有意识的AI
还需要满足一系列复杂的现实条件
他着重指出
意识与生物体有着本质上的联系
并不是只要有足够的算力就能够产生意识
传统基于冯诺依曼的机器和AI
不太可能产生意识
只有依赖于生命系统才可以
我们先简单介绍一下阿尼尔·塞斯
他是认知和计算神经科学教授
也是萨赛克斯大学塞克勒意识科学及心理中心的创始人之一
他不仅发表过100多篇科学论文
更是经常为大众科普
他在2017年发表的TED演讲
仅在YouTube上就有将近1100万次的播放
他的新书《意识机器》,
不仅从神经科学的角度论述了意识
还讨论了意识与人类对自我的概念理解
以及对自我认识之间的关系
有机会我们会再做一期节目介绍
好了,接下来我们进入今天的话题
这些年
关于AI是否具备意识的讨论不断的升温
大卫·查默斯David J
Chalmers
也就是“意识的困难问题”的提出者
认为尽管目前AI模型还面临着很多的技术障碍
但是这些障碍很可能在未来十年左右被全部克服
未来
下一代大型语言模型可能就会具备意识
人工智能安全中心组织CAIS也在一份报告中指出
尽管当前的人工智能还不具备意识
但是许多神经科学理论已经提出了可行的、用来评估AI意识的指标
其中就包括我们在意识大一统那期节目中提到的
循环处理理论RPT、全局工作空间理论GWT、高阶理论HOT、注意力基模理论AST等等
不过,在讨论AI是否具有意识的时候
研究者们往往会不自觉地将AI人格化
这种人类中心主义的观点会认为
如果机器表现出了类似人类的行为
满足某些理论框架下的意识指标
那么就可能具备意识
而这种基于计算功能主义的假设
正是这次阿尼尔·塞斯质疑的核心
我们先解释一下什么是计算功能主义?
在古希腊哲学中
有一个著名的忒休斯悖论
如果逐渐更换一艘木船上的每块木板
等最终换掉所有木板之后
这艘船还是原来的那艘船吗?
如果我们把木船换成大脑
将人类大脑中的每个模块
换成功能等价的硅基算法
甚至通过仿真技术
完全复制每个神经元之间的连接
那这样的硅基生物
能否被当成最初的大脑呢?
它是否具有意识呢?
这样的假设就被称为计算功能主义
也就是只要满足给定的功能
黑猫白猫都是好猫,意识是否存在
只和是否具有特定的计算能力有关
显然这种观点有些绝对
反对者就指出
即使神经元被硅基所取代
内部运作方式以及整体行为也将不可避免地存在差异
比方说
碳基大脑的神经活动会受到代谢限制、电磁场以及其他因素的影响
像一氧化氮这种神经递质
能够自由扩散过神经元的细胞膜
但是硅基的大脑只能模拟离散的时间点
无法检测到物质不断变化的位置
另外新陈代谢也会直接影响神经系统的通信
而对于硅基算法,算法本身是不朽的
不需要考虑新陈代谢
虽然反对者的证据
不足以推翻计算功能主义
但是也说明计算功能主义还无法自圆其说
虽然计算功能主义认为
机器具有智能的基础是计算功能
与它的物理特性无关
但是如果大脑的计算过程与碳基的物理实现密切相关呢?
我们之所以习惯将大脑看成是计算机
是因为习惯了从大脑的认知功能出发来思考问题
然而
随着对大脑内部运行机制的了解越来越深
神经科学界并没有发现
生物脑的“心智”和“湿件”之间
存在着像计算机软件和硬件之间那么明显的区别
具体来说
大脑的活动模式是在多个空间和时间尺度上持续展开的
不断受到神经递质的扩散、神经网络自身的物理结构
以及细胞基础设施的各种属性影响
这些因素都与神经系统代谢活动释放的分子风暴
紧密地交织在一起
如果只是简单地将大脑视为执行正确计算的机器
就会忽视它复杂的、多层面的生物活动
相对于计算功能主义
另一种称为非计算功能主义的观点则认为
意识可能仍然会依赖于功能组织
但并不依赖于计算
这一派理论的支持者
会大量使用类似于“动力学系统”的方法
借助于微分方程等数学工具
来模拟具身和嵌入式神经系统会如何随时间发生变化
类似的还包括4E理论
以及Gemma神经震荡及同步等等
非计算功能主义的研究者们
认为大脑是一个不断变化的动态系统
反对将大脑视为纯粹的计算工具
这就引出了阿尼尔·塞斯要提出的重要一点
那就是生物自然主义(biological naturalism)
这个术语来自于“中文屋”思想实验的提出者约翰·瑟尔John Searle
生物自然主义认为
意识是一种生物现象
源自于大脑和身体中的神经
以及其他可能的生物过程
是一种只有生物系统才具有的属性
阿尼尔·塞斯之后从预测和控制的神经科学视角
对生物自然主义进行了论证
先说预测
预测性编码理论将大脑的感知、决策与行动
看成是最小化预测误差的过程
而大脑之所以要不断更新对外界环境的预测
是为了保持它所属的身体的内稳定
这个理论认为
意识是大脑“最佳猜测”的产物
是自上而下的感知预测
对多感官产生的内容整合
形象点说
“意识是一种控制性的幻觉” ,
其中“控制性”强调意识的内容是主动生成的
而不是由外界体验被动赋予的
而意识产生的基础
是要具有一个能够像生命一样
保持内稳态并且自我复制的身体
如果没有生物体存在
就无法形成对自身状态的预测
也无法形成对外部世界的感知
可以说
意识和生物体维持自身是强绑定的
对于生物体来说
维持自身的内稳态是生存的必须
即使是最简单的细胞
也需要与外界进行物质交换
从生物自然主义的视角来看
这种交换是意识形成的先决条件
此外,生物在自我复制的过程中
不断重建自己的物质基础
维持自身的完整性
而意识则不断地参与到这个过程中
在生物自然主义的框架下
我们可以继续推导出
意识是与生命系统密切相关的
而这个所谓的生命系统
并不一定局限于碳基生命
甚至包括硅基的人工生命
以及辛顿Hinton提出的凡人计算
它们也都可能产生意识
尤其是辛顿这几年提出的凡人计算(Mortal Computation)模型
引发了对传统计算模式的深度反思
标准计算机科学的一个核心原则
是软件与硬件分离
这样在不同的硬件上执行相同的算法
会得到相同的输出
这种模式突显了软件的“不朽”特性
软件不依赖于硬件
即使原始的存储介质损坏了
也可以通过更换硬件继续使用软件
然而,凡人计算挑战了这个传统观念
它允许在执行相同任务、但是不同硬件上的神经网络之间
发生显著而且事先未知的变化
这些变化依赖于各自硬件的特性和学习过程
也就是说软件与硬件是紧密绑定的
一旦硬件损坏
相应的软件也会丧失
从而反映出生物大脑易逝性的计算特征
Perishability
凡人计算在硬件失效的时候会造成软件丢失
这表面上看上去好像是资源的浪费
但是实际上它揭示了传统计算模型中的一个重要缺陷
那就是不朽的计算在能耗上十分昂贵
它需要进行持续的错误纠正
来确保存储中的1保持为1
0保持为0
随着算法复杂性的增加
错误纠正的计算和能量成本也在迅速增长
与此相比
生物大脑因为它高效的能量使用
因此生物执行的计算是“易逝“的
不能和大脑“湿件”相分离
这也正是生物自然主义的观点
意识与物质基础不可分离
由于当前的人工智能
都是基于一个计算不朽的实现范式
所以如今的人工智能不太可能具有意识
而相比之下
突破现有硬件约束的凡人计算
更有可能具有意识
为什么关于大模型是否有意识会有这么大的争议?
是因为很多案例
其实利用了人类的偏见
包括人类中心主义、对机器的拟人化投射
以及对语言的误解
认为语言是思考的主要工具
而其实语言的主要功能是沟通
这些看似显示大模型具有意识的对话
实际上是在混淆图灵测试和意识测试
也是由于模型在训练时
采用了大量包含关于意识讨论的文本
这种我们认为有意识的AI系统
还会引发重大的道德伦理问题
它能够很好地利用人性的脆弱
当我们感觉它好像更加理解、关心我们的时候
可能会更倾向于盲目遵循它给出的建议
甚至更愿意牺牲自己的数字隐私
就像在美剧《西部世界》中一样
即使知道某个系统实际上并无意识
但是仍然感觉它好像具备意识一样
在这种情况下,我们会面临两难选择
一种是选择关心它
赋予它某种伦理地位
即便我们知道它们是无意识的;
第二种是选择忽略它们
放弃我们的同情心
但是这两种选择都会有问题
如果选择前者
可能会将我们的注意力从真正需要关心的对象
比如亲人身上转移
如果选择后者
可能会让我们对他人的感受变得麻木
正如在《西部世界》剧中发生的事情
在玛丽·雪莱的《弗兰肯斯坦》中
弗兰肯斯坦真正的罪过
并不是赋予他的创造物生命
而是赋予它们意识
这个创造物因此具备了痛苦、嫉妒和愤怒的能力
引发了恐怖和屠杀
显然
我们不应该重蹈弗兰肯斯坦的覆辙
最后
我们来回顾一下可能出现有意识的AI的各种场景
第一种,意识是一种计算形式
随着AI变得越来越智能
有意识的AI会在AGI到来的时候出现
塞斯指出
这个场景是基于我们的心理偏见
以及对计算功能主义未经充分检验的假设
因此不太可能
第二种,意识是一种计算形式
但是它必须根据意识理论
被明确地“设计”到人工系统中
塞斯指出
这样虽然避免了混淆意识与智能
但是仍然建立在计算功能主义的假设之上
也不太可能
第三种,意识是基于计算的
但是相关计算只能由特定类型的物理基础来实现
在这种场景中
传统冯诺依曼架构下的AI可能无法成为有意识的AI
只有更接近生物意识的系统
比如基于神经形态计算的凡人计算
才可能产生意识
第四种
意识依赖于神经系统而非计算功能组织
计算功能主义不再成立
在这种情况下,AI能否有意识
要取决于是否可以在硅基等其它物理基础中
实现神经系统中的非计算功能
比如构建足够真实的人工生命
这个场景也被称为弱生物自然主义
最后一种是强生物自然主义
在这个观点中
意识必须依赖于真实的生命系统
哪怕不是碳基的
但是,有生命并不一定代表有意识
这里塞斯想强调的是
哪怕生物自然主义是错误的
我们仍然应该通过理解生命体的本质
来理解人类和动物的意识
而不应该拿评价机器的指标
来理解和考察意识
将大脑视为计算机
混淆智能(intelligence)与意识(consciousness)的概念
不仅可能会让人们对有意识的AI抱有不切实际的幻想
更是会阻碍我们对自身的清晰认识
作为人类
我们往往习惯于根据自己的形象来创造技术
并将自我投射到所创造的技术中
但是作为活生生的、呼吸着的、感受着的、行动着的和思考着的生物
如果把人类的亲身体验只看做是处理信息的机器
那我们就是廉价地出卖了自己
也贬低了人的本质
好了,以上就是阿尼尔·塞斯的观点了
大家认为,意识是可以只靠计算获得
还是需要依赖于生命系统才可以呢?
欢迎在评论区留言,感谢大家的观看
我们下期再见
发表回复