E185_无共识的量子竞赛_群雄逐鹿与争议中的微软(3)

但我可以把十个芯片连在一起
所以它们比较重视怎么去建立量子芯片之间的连接
在芯片之间传递量子信息等等的这些技术
我们刚刚其实有好几次都提到了
把这种量子芯片连接在一起
比如说我们可以用10个32个量子比特的场景
你觉得10个32个量子比特的场景
跟320个量子比特在本质上是一样的吗?
这里面就涉及到连接时候的总线
那条线它有一个带宽的问题
这就跟我们所有的芯片连接一样
一旦涉及连接
都会受限于带宽
所以如果所有的比特能在一起发生量子计算的话
当然是最好的
所有的量子信息都在同一这个地方
你就不需要互相转移了
但是连接的话你就涉及到
是不是这个计算任务是比较适合这么做的
所以其实并不能简单地说
这个连接主义是好还是不好
因为有的计算任务最好是用小芯片并行
然后最后把它连起来
这样策略是比较优的
但有一些更复杂的计算任务
可能天生就需要大量的量子比特协同操作
那如果搞很多连接
就要互相不断地转移数据
反而会降低计算的效率
所以它在不同的应用场景下面会各有利弊
能不能举一个例子
哪些应用场景它是需要很多的量子比特的?
有哪些应用场景是把一些量子比特芯片连起来就可以了?
一般来说相对比较复杂的算法
就可能往往会用到很多的量子比特
因为目前还没有很多
大家都在用的、非常具体的量子算法
所以这只是对于未来的设想
并不是是说目前已经看到了这么一种区别
连接它之后的研究范围有吗?
因为我们已经实现了
可以把这些量子计算机连起来
连接起来之后可以用来干嘛?
这个现在有一些具体的应用场景吗?
比如说保密通讯
都需要你去分发量子信息
所以量子互联网肯定将来在通讯这些方面
至少都是可以取代经典计算机的
我觉得可能有一个更直观一点的
关于多少个量子比特的理解
像苹果的笔记本电脑
如果去模拟一个底层的量子力学的话
差不多它的上限是20个量子比特
如果我们有一些比较厉害的电脑
一些服务器去做模拟的话
差不多这个上限是30个量子比特
世界上比较厉害的一些大型的服务器
去做这个模拟的话
基本也不会超过40到50个量子比特
如果能够做成一个70、80乃至105个量子比特的芯片的话
本质上现在是已经超过了
我们经典计算机的能够计算的能力范围
我觉得这个比喻好通俗
那还会有其他的技术派别吗?
除了我们刚刚提的5种
比如说一些直接在芯片上面实现的
基于电子自旋的硅基量子计算
也有英特尔等等公司在试图研发
因为英特尔本身在半导体制成上面有它的优势
所以它可能会更倾向于在这些方面投入研究
但是这些方面目前不算是特别主流的路线
大家还在起步阶段
还在努力地尝试
我刚刚听完尤老师您的这段
对不同的量子比特路线的总结性的概括
我大概理解了为什么硅谷的很多公司
都会去选择超导量子比特的方案
它们核心其实要的还是多和好
因为巨头们有钱
省对它们来说可以不用考虑
它要有潜力的方案
有潜力就代表它的路线方案
未来可以一直往上加量子
同时它能解决现在困扰量子计算最大的难题
就是如何去保证它的精确性
它现在能做哪些经典计算机做不到的事情吗?
假设如果我让它去训练AI大模型
你觉得它跟传统计算机的训练
会有完全不一样的结果吗?
首先最明显的就是Google自己宣传的一个点
就是它sample的速度是非常快的
你如果点开Willow announcement主页的话
它就会做一个如果用经典计算机来计算
超过我们这个宇宙的时间限度的这么一个任务的活
但是在Willow的芯片上只需要十几秒还是什么的
反正就是很快
所以说它保证快
但是他不保证百分之百对
就快不快就完了
在某一些task上面
它已经展示出来了
它确实很快
所以在此基础之上
如果它们能够通过把它们的量子比特做得越来越多
也就是说多快好省中
好和多这个概念其实是互相之间可以变化的
如果我有很多很多的量子计算的芯片的话
我可以用很多很多的物理比特来代表一个逻辑比特
这样我只要增加点多的技术指标
它最终就会变成一个很好的量子计算机
所以这些大公司最终
如果它能够把这些量子计算机复制很多遍
用一个很成熟的技术让它们合作起来
形成一个可以商用的量子计算机的话
它最终就不仅是在速度上证明了
比我们的经典计算机要快很多很多
是那种人类的历史以及我们宇宙的历史
都没有办法达到的
这么长时间来完成的一个任务
然后量子计算机可以直接完成
而且它也能保证它的精确度是很高的
这是我们的一个梦想
那它现在能做哪些事情?
是不是跟它用的哪种量子算法是相关的?
因为刚刚其实你有提到Willow
它用了十几秒的时间去完成一个数学计算
如果我们用经典的计算机去计算
它可能比整个宇宙的寿命还要长
我知道那个测试它不是一个有意义的测试
纯粹是一个为了测试量子计算机性能的一个测试
它其实并不是一个
能解决我们生活里或者科研中具体问题的测试
关于它到底能怎么用
是不是也跟整个的量子算法有关系
量子计算机它的逻辑和经典计算机不一样
经典计算机可能是靠与门、或门、非门
靠加法、减法四则运算
去做具体的数字上面的计算
支撑起来了我们整个软件产业
所有的上面高层
它是一个非常通用的算法
它已经实现了图灵机的通用的层次
当然也有量子通用的概念
但是目前来说
我们还没有很好的量子的软件
能够让我们想让量子计算机干啥就能干啥
而且量子计算机干的事情
未必需要和经典计算机一样
经典计算机可能特别适合
把两个数相加或两个数相乘
但是没有必要让量子计算机
在这个任务上面做到非常厉害
事实上今天的量子计算机
想要把两个数相乘也是一件非常困难的事情
所以量子计算机首先它确立了
对于经典计算机的优越性的领域
就在于量子采样
就是谷歌最早的所谓的量子优越性的实验
听起来是一个没有什么意义的任务
是一个随机数采样的任务
采样出来的结果就是生成了一堆随机数
这随机数生成得快不快?
它确实比经典计算机要快得多
但是这随机数有啥用呢?
就也没啥用
但是随机数生成
实际上是所有生成模型的基础
不管我们要生成一幅新的图片
还是像ChatGPT一样
想要生成语言来跟人类进行对话
它们都是广义上的采样问题
都是有一定随机性的
生成是有一定规律的
所以完全可以想象
量子计算机对于这些任务是有它的优势的
一旦算法被训练完以后
它可以以快得多的速度来部署
比如说OpenAI在刚开始发布ChatGPT的时候
全世界的人们涌向OpenAI的网站
然后它就宕机了
那是因为它的服务器没办法承载这么大的流量
为什么呢
它的算法的复杂度使得它的服务器
没办法这么快速地向所有人分发生成的答案
假使有一天这个大语言模型
是运行在量子计算机上面的
量子计算机可以有非常优越地sample的速度
它可以同时回答一亿个人的问题
比如说在非常短的时间内
这就是一个很巨大的商业上的优势了
所以发展这些方面的技术
是目前我们看到量子计算机比较合适的一个方向
直接利用它采样效率非常高的优势
可以把它当成一个生成器
这也是目前量子机器学习
这个领域中间非常热点的一个话题
机器学习会怎么样帮助量子计算更快地发展呢?
比如说现在AI的发展
它对量子计算机的发展是有一个促进作用的吗?
对对对
AI的发展其实对所有的产业都是赋能的
包括量子计算
在量子计算中间有很多的问题
比如说量子线路如何编译的问题
比如说我要执行一个量子算法
实际上这个算法是一个很宏观的描述
它要具象化到具体的操作
对每个量子比特做什么样的门
以及这些量子逻辑门
应该怎么样在线路上面进行安排
这就会有很多优化问题
同一个算法可以有很多很多种不同的线路来实现
哪一种线路是最优的?
哪一种线路需要的操作是最少的?
这些都是可能可以通过AI机器学习的方式
来帮我们寻找到最优的解决方案
我们如果有一个比较优化的量子线路
自然也就会降低操作过程中间所积累的误差和噪声
所以这是在量子编译方面AI的作用
另外一方面就是量子纠错
量子计算机在运行的时候会受到环境的干扰
产生很多错误
所以需要纠错
但是很多纠错算法
是靠理论物理学家拍脑袋
用纸和笔努力设计出来的
这些都是人类的设计
不是AI的设计
人类的设计的缺点在于
人类没有办法从大数据中间直接学习获得经验
来设计出针对
当下这个量子计算机的特别的纠错算法
人类只能通过一些理想化的模型
比如说我假想这个量子计算机
会发生什么样的错误
但是事实上量子计算机上
会发生的错误是很难预测的
宇宙射线上面打下来一波高能粒子
就能够直接影响一个超导量子芯片
中间产生一系列有关联的错误
这些错误是很难在我们的模型中被模拟的
我们模型最多是假设
每个量子比特独立地发生一些错误
而很难去想象有一天宇宙射线下来了
所以这种事件
你很难针对它去设计一些量子纠错的方案
但是如果我们有一个AI的算法
它一边观察这个量子计算机的运行
在观察的过程中间不断地采集数据分析数据
然后通过对这些数据的分析
它了解了这个量子计算机
内部产生错误的原因
它自己从大数据中间学到它的一些模型
它就可以非常聪明地去设计
针对这个量子计算机
在当下这个状态下面的一些纠错的算法
事实上最近谷歌DeepMind团队
刚刚发布了一些新的研究成果
他们在一些surface code(表面码)的
量子纠错的体系中间
实际上就验证了这件事情
他们在人类理想的实验室环境中训练了一个算法
那个算法纠错能力已经是相当不错了
但是如果直接使用不是理想的
如果用实验中实际的数据进行训练的话
就能得到一个更好的纠错方案
这证明了向大自然学习
用大数据的方法来驱动纠错码的设计
是一个更加可行的方案
比人类怎么拍脑袋都要厉害
所以其实已经用上了对吧?
DeepMind已经把AI的这个技术带给量子计算了
对是DeepMind和Google Quantum AI
反正它们同一家公司内部的这种合作
它们已经有一些成果
在另一方面比如说
可以从大数据中间学习量子设备本身的行为
这就可以用来构造数字孪生
让经典计算机的AI的算法
通过观察量子计算机的行为
它其实学会了怎么样
behave like a quantum computer
就是像量子计算机一样地工作
你就可以把它当成一个模拟器
这有什么用处呢?
我们在设计量子计算机的时候
往往需要很多的试错
在这个试错的过程中间
你最好不要直接去做实验
因为要花很多钱
所以如果你有一个AI的数字孪生模拟器的话
你就可以以较低的成本做很多的测试
所以这个也是AI对于量子计算设备发展的一个推动
目前而言
我们给量子计算机编程的方式是还比较初级
有一点类似于汇编语言
但是我们也在想目前的AI大语言模型的发展
可能可以使得我们
也可以有自然语言的方式
和量子计算机进行交互
这些都是AI能够从硬件和软件层面
给量子计算带来的一些促进
可以理解你们在做一个量子计算领域的Cursor
可以这样理解
而且我觉得也算是一个AI agent
对 更像一个AI agent
不过AI agent其实和量子编程有一点不一样
就是说一个agent它大概脑海中已经有一个想法
把你的工作要怎么去完成
然后其实你本身也会去做这件任务
但是在这个工作的过程中
有很多很多的步骤你不想花太多时间去做
然后可以有一个AI agent
来帮你把这些工作都做好
量子编程它有一个稍微不同的地方
其实很多量子现象还是处于在科学的最前沿
这个世界上最厉害的expert
也不能完全了解这个量子的世界到底是怎么运行的
所以我们希望将来有一个
AI的expert for quantum programming
它不仅仅可以在底层做这些操作
它对于一些前沿的量子知识
也能够给你一些比较好的回答
其实我刚刚观察到
就是比如说我们在说
AI如何帮助到量子计算的时候
其实很多时候都是在软件层面
就是说这个量子计算机它可能不仅仅是要有芯片
还是要物理上的把量子计算机给造出来
如果它想要发展得好
其实是需要很多合作伙伴进去
以及软件层进去
包括其实英伟达也在做它们这样的软件平台
可能还是需要一整个的行业生态起来
它才可以更加加速地去发展
那如果是反过来问
量子计算会怎么样帮助AI的发展?
因为上期很有意思
就是我们在聊DeepSeek的那期的时候
其实我们有跟羽北聊到
大模型什么时候可以达到人脑的效率跟耗能
他觉得大模型现在跟人脑还差了三个数量级
我其实觉得人脑也挺有意思的
比如说我们有时候有一个想法的时候
这个想法可能瞬间就过了
或者说我们在做一个事情的时候
当你做了一件事情
那接下来就会发生二三四五六件事
人脑的思维跟想法的过程
其实特别像量子计算
你觉得像的点是什么?
就是很关联
对 我觉得很关联
当你有一个意向的时候
然后你执行了这个意向
接下来就是你所有的结果都会改变
再比如说你有一个想法
但是很多时候你也不能预判你的行为
它可能是个0 可能是个1
有一定的随机性
对 非常随机
还有牵一发而动全身的这种全局性
是的 其实在这个方面
关于人脑中间的人的思维过程
是否也涉及到量子
历史都有很多的讨论
比如说UCSB的Matthew Fisher教授
他就在量子意识这个方向
一直在研究这些问题
人脑中间的很多生化过程
可能是会受量子纠缠的影响的
所以这也说不清楚
我们在思维的过程中间
是不是已经悄悄的使用了量子计算
我们也许不完全是一个经典计算机
我们的思考可能有量子的成分在里面
犹未可知
当然从更具体的科研的角度来说
其实量子计算机对AI也是打开很多新的可能性
比如说人们能提出来可以做所谓的量子神经网络
就是目前的人工神经网络都是经典的一些变量
它们之间经过一些什么线性层
非线性激发等等的
去传递一些经典的信号

评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注