现在处在敏感阶段的三个行业
先进半导体AI量子
我们可以总体来说
先进半导体是一个非常传奇的过去
然后AI是个非常蓬勃的当下
量子计算是不可避免的未来
所以在一个加息周期里面的话呢
政府会对这个不可避免的未来
更感兴趣
但随着减息周期的开始
我觉得像VC对整个行业更加关注
特别是Willow的出现
我觉得会ramp up
哈喽大家好
欢迎收听硅谷101
我是泓君
那大家标题已经看出来了
这又是一集非常硬核的话题
量子计算
2024年的12月
谷歌宣布
基于Willow的计算机芯片的
量子计算机
只需要不到5分钟的时间
就可以完成一项标准的数学计算
那我们把这项计算交给传统的计算机
需要多久呢
10-25次方年
这是什么意思
就是说这个时间
已经超过了我们知道的宇宙年龄
我相信听到这里大家就有疑问了
谷歌的量子计算机
如果已经能执行这么厉害的任务了
那量子计算是不是实现了呢
并不是因为谷歌的机器啊
执行的数学计算
是一项
专门用于衡量量子计算进展的测试
而不是一个有用的
可以在医学或者人工智能领域进行的
有目的性的一些运算
过去30年
困扰这个领域最顶级的学者们的问题呢
就是量子计算机他会犯太多的错误
谷歌Willow芯片的主要贡献呢
就是它可以
在扩展至更多的量子比特的时候
指数级的减少错误
那基于这一点
它其实是解决了一个
困扰科学家们30年的难题
所以业内人又将Google的Willow芯片
称作是量子计算界的Transformer moment
这样一来
量子计算机
距离执行人们觉得有用的任务
我们离完全纠错的量子计算机
就又近了一步
我们离有用的量子计算还有多远
英伟达的CEO黄仁勋
在CES期间也被问到了这个问题
and so if you kind of said 15 years
for for very useful quantum computers
that would that would probably be on the early side if you said
you know 30 is probably on the late side
but if you picked 20
i think i think a whole bunch of us would
那我们这期节目的录制呢
是在1月份的CES之后
刚好是黄仁勋回答了这个问题
所以我们会讨论他的回答
以及量子计算还有多久实现
同时呢我们也会提到啊
刚刚对节目开头
谷歌Willow芯片的一些解析
那第三部分呢
我们也回顾了过去几十年硅谷巨头
是如何去布局量子计算
以及他们之间的线路之争
这部分听上去会有一点点难啊
大家可以一边看shownotes
或者使用AI工具的辅助
去理解这期节目
那最后一部分呢
我们会聊一聊量子计算的应用
以及它与加密货币 银行
还有运营商之间的密码学博弈
下面就请收听我们今天的节目
那今天跟我在一起的两位嘉宾
一位是Anyon technology的创始人
也是加州理工大学的博士与伯克利大学的博士后
Roger Luo
hello
Roger你好
你好啊你好啊
很高兴能参与这个节目
然后跟大家聊一聊
关于最近量子计算的一些前线信息吧
对欢迎欢迎
那另一位嘉宾呢
也是Roger的同学
他是加州理工大学的博士与博士后
同时呢也是Anyon的CTO
Jared Ren
哈喽Jared你好
我们是加州理工博士期间的同学
嗯欢迎Jared
那在开始的时候
大家要不要介绍一下自己
包括你们跟这个量子计算的关系
好啊好啊
在过去十年多的时间
我们基本上
一直在做量子芯片相关的事情
我和Jared是2014年来到加州理工
做博士的
我们的加州理工导师是Oskar Painter
也就是现在
AWS的量子硬件部门的负责人
实际上我们在量子计算这个赛道上面
从14年就开始有10年的共同从业经验呢
也是基本上在19年我博士毕业
再去博士后之后
然后我觉得时机比较成熟了
就跟我之前的同组同学
就Jared一起创立了这个公司
目标就是结合我们在伯克利
和加州理工的相关的前沿技术
因为我在伯克利的博士后组
也是整个量子计算芯片的先驱的组
就是Professor Irfan Siddiqi
他基本上在超导量子电路这个赛道上
算是20多年的历史了
也是最早的一批教授
基本上跟John Martinis是同一代
所以说实际上我们当时创立这个公司
初衷就是一是看到了很多
像很多公司
基本上所有的云计算公司都
在做量子计算
特别是AWS
把我们之前在CalTech的组
给整体的拿过去
创建了它的量子计算硬件部门之后
我们觉得这时机很成熟了
那我们既然有技术有时机
我们就why not
对吧去做一个公司
将我们的技术变成商业化产品
然后服务于下个十年的计算行业
这个是初中吧
嗯那Jared你要不要介绍一下
好啊
由于我跟Roger的轨迹比较相似吧
所以Roger基本上也帮我介绍过一些了
在我们2019年2022年博士毕业期间
Roger去了伯克利做博士后
我继续留在了加州理工
继续跟Professor Oskar Painter继续做博士后
这个期间
也是亚马逊开始开展量子计算
正在把我们的博士生导师
整个的研究组
挖到亚马逊AWS量子计算部门
这么一个过程
所以说
我也参与了一些初期的交接的工作
和准备工作
当然像Roger刚才说的
我们最终觉得是一个非常好的时机
来成立自己的公司
按照我们自己的理念
可以走出跟大公司不一样的发展路线
所以说
我们就一起创立了现在这Anyon Technology
这个公司
嗯那我觉得在节目的最开始
可能还是一个非常通俗的问题啊
能不能用尽可能通俗的语言
跟我们的听众解释一下
什么是量子计算
它是用来做什么的
好我用我一直以来比较通用的一套
浅显易懂的解释
介绍一下量子计算吧
理解量子计算
可以跟经典计算机做一个类比
那我们现在市面上几乎所有的计算机啊无论是CPU GPU或者是手机
或者是很简单的计算器
都可以理解为是经典计算机
对啊那我们想理解量子计算机的话
用经典计算机来做类比
是比较容易理解的
我们其实可以理解为
每一个经典计算机
都是一长串的字符串
由0或者一组成的
就是我们所说的bits
bits只能是0或者是1的状态
那所有的计算机
无论是它有多么复杂
还有多么简单
无非是一个比较长的字符串
或者是一个比较短的字符串
那类比于量子计算器的话
其实它也是一长串的字符串
只不过它的组成部分
我们叫做qubit
量子比特
那量子比特跟比特的区别是什么呢
就是说量子比特
它不仅仅只能存在于0或者1的状态
而是它有一个叠加态
它可以同时存在于0和1之中的状态
那量子计算机呢
或者说量子比特还有另外一个特性
那就是量子的另外一个原理
就是说它的纠缠态
它不仅仅是说每一个量子比特
不仅仅是它自己单独的量子比特
而是不同的量子比特之间
可以纠缠在一起
同时发生改变
那这两个一起发生作用呢
就产生了跟经典计算机显著的不同
经典计算机
比如说如果是一个
只有三位数构成的经典计算机
那它的所能存在的状态就是000001
一直到111
一共八位数
那如果想要进行运算的话
他只能一个一个的去改变每一个位数
如果他要去到这8个不同的状态的话他要进行8次运算
但量子比特不同
量子计算机不同
他由于
如果说我们有一个
三个量子比特构成的量子计算机的话
它其实是由于叠加原理和纠缠原理
它可以同时存在在这8个状态里面
然后同时对这8个状态进行计算
那如果只有三位数的话
它们的差距可能不这么明显
一共要进行8次运算
一个进行一次运算就可以完成
但是如果比特的数量继续加倍的话
那量子计算机
它其实是一个指数增长的过程
如果有4位的话
经典计算机就要进行16次计算
才能穷尽16个状态
但是量子计算机还是只需要一次
就可以穷尽所有的16次状态
这就是所谓的量子计算机
相对于经典计算机的计算来说的话
指数的加速过程
所以我可不可以理解成
量子计算机
它其实是非常适合去解决非常复杂
高难度的计算的
越难的计算它越有优势
而我们可以理解为
它的核心优势在于
能够在某些特定的问题上
实现指数级的加速
量子计算机
它不是经典计算机的代替品
就像GPU
不能像是完全是CPU的代替品一样
他们两个是一个共同存在
相互协同的作用
量子计算机特别擅长某些特定问题上
实现指数级的加速
像是矩阵运算
因数分解
量子化学模拟和组合优化等领域
它会在这些高复杂度计算的任务中
发挥非常重要的作用
哪些领域
会运用到这些高复杂度的计算啊
就比如说
如果你们能想象
未来量子计算它会去应用的话
相比于传统计算机
它一个非常有优势的场景
跟它最有优势解决的问题是什么
能不能举一个具体的场景的例子
它有几种特殊的算法
有的特殊算法
对矩阵运算
有特别好的指数级的加速效果
有的运算对因数分解
有特别好的加速效果
他本身是量子的
然后这个世界本身是量子的
用经典计算器对量子世界进行模拟
本身是非常困难的
也就是说我们的一些化学运算啊
它本身是量子的
所以说
用量子计算器进行这方面的运算
将会更加的容易
嗯那我刚才提到的3个例子所对应的
其实就非常的明显
其实矩阵运算
我们现在所有的人工智能机器学习
本质上就是矩阵运算
那因数分解的话
很能想到的就是Shor算法
所对应的安全问题
加密问题
现在大部分的加密手段
都是通过类似的情况进行加密的
那量子计算对于破解这样的加密
就非常有优势
而量子化学模拟
那很明显就可以想到油气啊化工啊
药物的研发等等
是一个非常直接的作用
还有一个领域
就是
量子计算机对组合优化的求解过程
是非常的迅速
也有指数级的加速作用
所以说对于一些物流啊
之类的需要优化的内容
这些领域也是非常有帮助的
嗯理解理解
你刚刚提到了好几个点嘛
比如说在矩阵运算方面
它对人工智能的加速表现在哪里了
比如说有了这个量子计算机
那大家在去训练这种大模型的时候
它会有特别的优势
还是说它只能在一个极小的领域里面
针对某一个特定问题
它可能会有一些特定的解法
我理解的是
人工智能无论的模型是什么
它的本质是矩阵运算
其实回到了根本的问题
就是GPU为什么在人工智能中作用这么大
它比CPU
为什么做人工智能的模型的话
速度快这么多
本质上就是
GPU对矩阵运算的速度会比CPU快很多
CPU擅长比较复杂的问题的
比较少线程的运算
而矩阵的运算
本质上不需要特别复杂的过程
比较重复的过程
而且需要特别多的核心同步运算
那这就是GPU的作用
也就是说
人工智能
为什么在GPU上比CPU上优势这么大
就是因为
GPU对矩阵运算会比CPU快很多
像量子计算机中
用到了HHL算法之类的算法
对矩阵的运算也能加速的话
本质上就是对人工智能整个大模型
开发的类似的
实现了从CPU到GPU的
这样一种跨越式的加速发展
对因为实际上加入想表达一点
就是
实际上量子计算在这个具体的问题上
通过加速矩阵求例算法这相关的算法
我们实际上可以总体的加速
整个人工智能
学习啊的和inference的pipeline
也就意味着
比如说
你的人工智能模型有100billion的参数
你用100billion参数
你用GPU去跑的话
对应的大概是一个比如说100billion乘
100billion的算法复杂度
就要跑这么多步骤去算
它对于量计算机来说的话呢
就是一个求指数底数的这个log
求log的一个方式就是100Billion的话
大概相当于log 100Billion的一个算复杂度
相对来说
你在处理巨大的模型的时候的话呢
它的整个操纵的数量会指数级下降
相当于
你可以以更少的能量和资源付出
去计算一个矩形模型
嗯对
刚刚我们提到了
量子计算应用的几个方面
我觉得在之后啊
我们还可以详细的去探讨它的商业化
跟它在各个行业里面是怎么应用的
但是呢
在此之前我觉得就有一个问题了
量子计算现在到底能不能实现
比如说我们说的来去训练人工智能
它发展到哪个阶段了
那在问这个问题的时候呢
其实今年英伟达的创始人Jensen Huang
他是在今年的CES上
其实也把这个问题提出来了嘛
然后我记得他说的是
如果你说
15年内能实现非常有用的量子计算
他觉得这个是一个非常偏早的预测
如果说是30年实践有用的量子计算
可能偏晚
所以呢
他觉得一个合理的区间是在20年
但是呢他这个话一说啊
有一批量子计算的股票
大家的股价就纷纷下跌
所以也是想听一下两位
你们怎么去看Jensen说的量子计算
它的实现时间
首先
Jensen在他们对于Nvidia的投资者会议上
被问到后
且正面回答这个问题本身
其实已经把他认为的20年
抗贩卖到了远不止20年了哈哈
比20年还要久
因为一旦你开始回答这个问题
在这种会议上
那就意味着投资者在考虑
是不是要price in你未来10年
量计算对你公司的股价影响呢
因为大家都知道
花结算股价的方式
是price in未来10年的assumed gross和Monopoly的
所以实际上
这一个对他来说有点conflict interest的问题
就如果他有任何地方表现出未来实验
这可能会对GPU产生影响的话
那明天Nvidia股价就要跌了
相比让Nvidia股价要跌来说的话
那量子以上的股价跌
对他来说是一个非常合理的决定
毕竟坐在哪个位置上回答他的问题吗
嗯还有另外一个角度来讲的话呢
我觉得Jensen是很厉害的人
我也很尊敬他
但是人你就要不要看他说什么
要看他做什么
对吧Jensen公司在量子计算里面
算是一个非常大的一条鱼了
他也是我们的合作伙伴
他们也有非常主动的各种partnership
合作
还有
包括我们等下参加的一些超算的会
也是我们跟他们要一起做demo的
所以整体上来说这个就代表一个逻辑
从他做的角度来讲
我们可以回顾一个历史
CUDA Launch的时候是07年
CUDA DNN
就是CUDA专门为DNN的那个package
Launch的时候是14年
而Transformer是16年
GPT3.5是22年
就算你从CUDA算起15年都是一个
从Nvidia角度来讲呢
开始做这个方向
到最后对方完全落地都不会超过15年
所以第三点它用词非常精准
它说是very useful Quantum computer
在这个context里面
其实也可以认为它理解为是叫Large scale fault tolerant quantum computer
也就是量子计算的完整体
就有点类似于AI里面我们谈论AGI
它是一个非常长远的goal
或者是一个非常powerful的一个dream
一个goal它如果能被实现
基本上
人类文明在下一个阶段就会被激发了
因为我们开发出无数的新材料
和无数的远超人类强大的人工智能
都可能出现
所以它这个very useful的意思就是
博客
-
E180_量子计算的Transformer时刻与科技巨头的路径之争(1)
-
E179_DeepSeek技术解析_为何引发英伟达股价下跌_(5)
世界模型有个action
action是什么
action就是比如向前走
向后走向左走
向右走
有一篇DeepMind非常好的文章叫做Genie 2
它里面就是说给我任何一幅画
我可以变成这个幅画里的主人公
我可以向前走向后走
然后就可以在这个世界里穿梭了
GPT其实可以认为是一个
没有action的一个world model
它就做一件事
就是给定之前你给我说的话
我预测未来
那么世界模型更general一点的形式
就是给定之前发生的事情
给定我接下来要take的一个行为
预测未来
世界模型
当你的模型非常好的
时候
你就可以用它来做reasoning和planning
比如举一个具体的例子
我们最近做的一个工作
就是实现了这样的一个事情
就是说如果我可以创一个
非常好的一个world model
那么我们接下来
可以完全的用这个world model
来学习一个task
几乎就是说你不需要再看现实世界了
因为你已经创造了
一个现实世界的一个copy了
所以你这个时候可以在一些任务上
你可以搭载上任何的一个
强化学习的方法
然后你把现实世界换掉
你就用这个世界模型来做
然后你就可以达到一个很高的performance
当你的模型进化到一定程度的时候
因为准确到一定程度
你就具有了这样的能力
就是说我可以在自我的空间里面
来提高自己的一些行为
甚至你可能不用强化学
你直接可以用model predicted control
你直接把它搜出来
就直接把这一条比较好的轨迹搜出来
就是像我刚才说的那个
当你的基础贝斯模型
已经好到一定程度的时候
你生成100条
已经能找到一些比较好的信号了
然后你可以再对它进行强化
以后呢
让它在这个方面提高了很多以后
直接出来
但假设你的模型
已经好到一定程度的时候
你生成这100条里面
必然有一条是正确的
那你不用再学东西了吗
你直接可以搜出来了
所以我觉得样材所坚持的
就是说这种世界模型
我认为是一个非常重要的方向
只不过这里面也有不同流派
有人可能focus生成
有人希望能学到更高级别的感知
然后有些可能强调空间的intelligence
对吧有不同的这种声音
我其实觉得这样是一个好事情
嗯
大家还是有很多的不同的方式跟方法
去达到我们说AGI也好对
嗯我我觉得还是有很丰富的想法的
在这一点上
嗯对对
因为现在关于DeepSeek
他们很多的信息都已经公开出来了
因为他们也是一个开源模型
就是想问一下
你们对DeepSeek有没有什么样的问题
就是你们对这家公司还非常好奇的
有问题啊
那因为他这个文章里面
具体的数据的composition
这个在文章里面并没有写出来
然后以及他训练的很多的细节
也没有写出来
只是大概层面上
当然我认为不应该全部都公开出来
对吧这个不合理
但是如果有更多的细节讲出来
能够让大家更好的去复现
这样工作可能是更好的
嗯
就是你希望他的数据能写的更细啊
对但是这也是一个趋势
所有的这些Frontier
research lab都有这样同样的趋势
就是说到数据这个地方以后非常含糊
有些事情就没有办法
连OpenAI都不敢写
就是所有的大模型公司问到数据
都是他们不敢答的
对
然后甚至你的连数据是如何balance的
curation的
这个process是具体怎么做的
这些都是不写的
我可以说不写它具体组成
但是我依然可以写它具体是如何curate
等等
但这些细节好多的时候大家也都不写
所以我其实
觉得这些东西反而是最关键的
其他那些
你说我用search的方法来做这reasoning
planning这其实很容易想到
当你的模型足够好的时候
它的bootstrap的方法也可以提高性能
这也很容易想到对吧
小模型无法直接Bootstrap
用大模型直接Bootstrap出来喂给小模型
这个也很容易想到
所以真正不好想到的这些东西
反而一个是数据的具体的composition
然后还有呢
就是说
在这种architecture里边的一些底层的
一创新
我觉得觉得可能这些东西是最关键的
嗯嗯对
所以整体上来说
还是想从DeepSeek上学到更多的东西
对这样我可能没有什么问题吧
但是我可能比较关注的就是
DeepSeek这家公司
它能不能持续的push the envelope
它能不能持续的跟OpenAI去挑战它
如果它后面能不断的给我们惊喜
让我们看到
大家可能最后做application都是在DeepSeek上
那这个对整个的芯片
infrar这块的格局
确实是有比较大的改变
会是什么改变
就我刚刚说
因为DeepSeek
它已经绕过CUDA去适配很多东西了嘛
所以如果他能继续站住这个位置的话
那可能很多其他芯片都有一定的机会
对英伟达本身的这个生态
也会有一定的挑战啊
溢价是肯定要打下来
但如果下一个就比如说Llama4出来
假如是比DeepSeek好很多的话
那可能一切又回到Scratch board
回到刚开始
嗯好的
谢谢羽北
谢谢John
谢谢
当然我们今天的播客有从
算力算法
还有整个大模型的演化来去聊DeepSeek
那它对数据的影响是怎么样的呢
如果大家对听到更多的采访感兴趣
我们也考虑会将一些精华的内容
放在硅谷101的视频号上
当然我相信我们的很多听众啊
也是AI领域的专家
如果大家对于DeepSeek有什么样的想法
或者想了解的
欢迎给我们写评论写留言
那这就是我们今天的节目
大家可以通过小宇宙苹果播客Spotify
还有YouTube上搜索硅谷101来关注我们
我是泓君
感谢大家的收听
再次祝大家新年快乐 -
E179_DeepSeek技术解析_为何引发英伟达股价下跌_(4)
调用API完成一些基本的工作
那更复杂一些工作呢
它其实可以offload到语音上面
这样的一个层次化的一个智能
对吧但是它其实很多的这种平台上
一个手表
它已经能做非常复杂的这种推理了
而且你这手机上像高通的芯片
其实它的这种推理的能力可以达到50TOPS
它其实是一个非常大的一个算例
没有比A100差多少
所以很多小模型
他其实可以胜任
很多大模型已经在做的事情
然后这个对于降成本
提高AI的触及程度是有很大的帮助的
小模型是本地的还是联网的
本地的所以我理解
未来我们整个世界里面
可能会有各种各样的小模型
当这个小模型不够用的时候
他再去调动这种大模型
这样就可以极大地节省
这一部分的推理成本
对我觉得就是未来的AI的Intra
应该是一个层次化的
它最小的可以到端上面就是在传感器里边就做一些非常普通的问题
在边上也会有更多的AI的功能
然后到云上对吧
端边云我认为它未来是一个整体
之前我说过一个数字
如果你做一个简单的计算的话
你把全世界
刚才我说的端上和边上的这个算力
你乘一下
你会发现
是全世界HPC里边的GPU的算力的100倍
那这个是非常可怕的一件事
因为它的量太大了
高性能GPU
可能是以百万片的级别在出
但是你像手机
像边上的这种端上的
它都可能是以10个billion
就是这种100亿的这种量级
或者手机比如说是10亿这种级别
然后到Sensor的话
它又会带那么一两个数量级
当它的volume上去以后
它的加起来的算力实际上是超大的
芯片够用吗
比如说高通的芯片
它可以做很多很复杂的功能
就是说从小语言模型嗯
一直到visual language model啊
到Audio的ASR什么的
很多的功能都胜任了
所以其实对于这些
我管它叫做初级的AI的功能
不管是agentic的还是perception的对吧
就感知的很多
我认为在这种edge platform和End point身上都是可以完成的
最后呢
最复杂的一部分任务会交到云上面来
然后第二个事件是
你会发现全世界其实99%到90%的数据
其实也在端和边上
但是现在大部分情况是use it or lose it
就比如
你不可能把camera的所有的这些video
全都传上来
所以如果你有AI的function在端和边上
你可能会能够把最有用的数据传上来
这个其实是价值是巨大的
所以其实现在的这些数据
都是没有被UNLOCK的
然后在未来的话
当你的AI的初级程度变多了以后
你可以认为初级的AI模型
反而是可以充当大模型的一种
数据压缩
这样的一个角色
对然后
现在大家部署的是DeepSeek的小模型吗
还是Llama的
其实可能都不是它一个
整个生态有
然后有Qwen的
然后有Llama的
有DeepSeek现在出来的一些模型
也有很多自研的
所以我觉得整个生态里面
其实只能说是越来越多的
这样的小模型在涌现
而且他们的能力在快速提高
选模型看中的关键点是什么
首先它必须得快
对吧得小
这是它的效率的问题
但是除此之外
它必须得足够好
因为没人会为一个小
快但不好用的模型买单的
所以就是说
你一定要保证它所处理的任务呢
它能够胜任
这个我认为是叫做鲁棒性
就是AI的鲁棒性
这个很重要
我们就说一个话筒降噪
你放到这里了
那它必须得能够保证我的一个音质
它不能最后出来的很粗糙
那我是不会用它的
那我可能还是要用后期的处理软件
啊我理解了
所以其实我觉得在应用端的话
大家看的并不是说
最前沿的模型是什么
而是说最适合我的模型是什么
就是哪一个模型它能保证
比如说我在话筒里面加一个降噪功能
它最后出来的兼顾音质跟
降噪它能调整到一个最优水平
然后在这个情况下
选成本最低的就可以了
是的是的是的
对
那最后我们再来讨论一下AGI的问题
我看最近Anthropic的CEO跟创始人
Dario Amodei他自己在他的文章里面
他也是说了这个
人工智能发展的三大动力曲线
第一个就是Scaling Law
然后这个我们就不解释了
然后第二个
大概就是说在人工智能发展的过程中
通过比如说算法的改进
然后芯片上的改进
各种各样的方法
它可以让你的训练的效率跟数量级
再去提升一个
比如说每年4倍或者10倍的速度
第三个呢
他就是说整个的训练范式
其实也在改变
比如说从2020年到2023年
整个业界
他用的方法就是预训练大模型的方式
但是其实在2024年
几乎所有的公司都意识到了
大家要在预训练的这个模型上
加入强化学习这个思维
练的方式去训练
但是大家在这个步骤上
其实花的钱不够多
就比如说以前从这个10万到100万美元
那如果我把这些步骤
比如说拉到1亿美元会怎么样
通过这三个方式
他是觉得整个人工智能的发展
按照现在的速度算
他会是指数级的增长
然后他的智能也会指数级的提升
所以他有一个结论非常震惊我
他就说大概在2026年到2027年
他觉得AI会在任何行业任何场景下
比绝大部分的人会聪明
他用的是“almost”这个词
“almost”我觉得应该99%对
嗯他做出这样一个预测
就2026年 2027年这
样一个预测呢
我认为还是非常有勇气的
嗯你觉得没有那么快
就是如果你说5年以后的话
我认为可能是更稳妥一点
因为5年以后的事情
谁都不知道怎么回事
但是如果你说是明年的事
因为现在是2025年了
如果说你明年在各行各业
都要超越大部分的人
或者是我再多给一年 2027年
我认为这是有挑战的
嗯单个任务呢
比如说写代码
写代码其实是提高效率
但是你说超越人
我觉得不是这样的
就是很多你会发现这些低级别的
这个任务确实很繁琐
它确实可以加速
但是人工智能
它真正用在应用里的开发还远远不够
因为你如果这么去想一下
这个全世界的算力
它主要是应用在训练上
还是应用在推理上
以前可能主要的都是应用在训练上
随着这种大模型的能力变强
随着AI的开发成本下降
所以它这个AI的应用上的
所用到的算力其实已经提高了很多了
对我觉得替代人可能是他
是一个应用层面的事情
但我觉得从他的角度来说
因为他其实自己
是一个大模型公司的创始人
我想他说的应该是指
模型能达到的这个智力水平
对如果不解决学习的efficiency
的这个问题的话
我其实觉得大模型的智力水平的话
是无法跟人真的放在一个级别上的
OK对
所以你觉得达到Yann说的这个efficiency
它大概需要多久
比如说三个数量级
对就是我们当时讨论的时候
这个三个数量级后
来我们就简单
我做做了一个这样的一个计算
我其实觉得
这个还有非常大的不可预测性
因为这里面需要基础研究
现在我们当前的人工智能
跟人所能达到的能力
或者自然natural intelligence的政策
和artificial intelligence的智能
它们之间的一个efficiency效率差距
我认为不管从功耗
从模型尺寸
从学习所需要的数据
都差至少3个数量级
跟人相比
对功耗的话
你可以想
人的这个大脑其实非常efficient
它在运转的时候
你在醒的时候
它的功耗大概相当于一个20瓦
那么同样的话
你可以想象
我如果要是有一个600个billion parameter
这样的一个模型的话
你就可以想象大概我需要多少张卡呢
大概是需要16张卡
这个样子
大概对应的是一个2万瓦的一个量级
那么哎
你看20瓦和2万瓦差了三个数量级
人呢假设咱们在20岁之前
只能access不超过10个billion token
那么Llama的这个训练的数据量
也是15个trillion
那么15trillion和10个billion的话
那又是刚好是大概三个数量级
这个样子
第三个例子
你说如果你看自然界的这些小动物
你看像jumping spider
它可以做非常复杂的三维的navigation
这样的模型
在我们现在自动驾驶里面
所做的这些navigation的模型的话
基本上是billion级别的parameter
而你看jumping Spider
它只有几百万个神经元
刚好又是3个数量级
所以我觉得
自然的natural intelligence和Artificial intelligence
它存在这样至少一个3个数量级的efficiency的差距
如何unlock这个差距
或者bridge这个gap
我是觉得需要基础研究
现在整个大模型的进步
让你看到了这个希望吗
我觉得大模型的进步
其实并没有看到这个希望
但是大模型之外
像这种reasoning planning
或者是neurosymbolic representation
这种逻辑推理呀
也好啊然后像这种search也好呀
像因果呀
causality啊也好呀
我觉得这个似乎都在正确的路上
而且这种data的curation
这个data的迭代
就是人其实是非常擅长的
做一件事情
是说我学一个东西
然后我找到哪里学习最有效
然后我focus上学这些东西
对吧我要搭桥等等
原则上来讲的话
如果机器能有这样的能力自我去提升
我认为这个就像人相似了
但是目前呢
很多的时候
你的机器的提升
是来自于人来给你准备数据
所以就是human in the loop对吧
然后他也给你做更好的curation
什么时候这个过程能够基本自动化
模型他能自己给他一个Internet
他上去自己提升自己
能够make every token count的话
那我认为这样的话
可能距离人的智能就更加接近了
所以你是觉得整个基础研究
已经走在了正确的路上
类似于类人智能的这些基础研究
基本上在全面开怀就是
呃我觉得是
有有很多这样的比较有意思的研究
但是呢基础研究
它虽然我们的发展速度一直在加快
但是基础研究本身有一种不可预测性
有可能
明天有个小神童什么的
就找出来一种就unlock的这个密码
然后大家就happy的
这个问题solve掉了
它是计算机领域的研究
还是人脑领域的研究
我觉得它其实是在数学
计算机和人脑
工程几个的一个交叉的一个进展
当然目前的话工程占主导地位
就是在工程上面
你可能尝试很多这样的想法
就是更快
主要是工程上的
我认为在这件事情
工程上面走的
在最近的十年
都走的比其他领域都要快一点
因为主要是你可以做实验嘛
不管你怎么想
你最后可以有更高效的实验效率
因为数学的话
你要证明
证明的话
其实有的时候这个数据太复杂了
你无法证明
对吧就所以计算机或者说工程
in general它close这个loop更方便一些
嗯对
John你对Dario的观点有什么想法吗
我觉得这说的差不多吧
然后我只要觉得他说完全能超过人
这里头最大的一个瓶颈
可能在于domian knowledge吧
比如像我创业这么多年
你要说一个机器能超过我创业的经验
就我觉得可能比较难
因为我创业经验只有我自己知道
对我也没有把这些东西数字化了
那在不同的行业里头
大家都会有自己的经验
在增加自己在某项工作中的一些wisdom
那他们是不是把他们所有知道的东西
全都数据化了呢
而且把这些数字化的这些数据
都给到了某一个模型
我觉得这个可能是比较大的一个工程
所以就基于这点
我觉得机器超越人可能没有那么快
我觉得应该不会是这两年的事情吧
主要我觉得就是一个数据的一个壁垒
所以你觉得现在数据
会是整个大模型训练中
遇到的一个
达到AGI的一个核心的门槛吗
我认为还是模型自我提升能力
就还不到
数据的能力
我认为是他如何自己去提升
人在学习的过程中
其实你是不断在寻找学习的信号
然后自己去做一些思考的
很多的这些思考都是内化的
可能不是外界来的这个token
嗯不是说我们外界的
整个世界的数据不够了
所以我学不好
这学不好还是我自己的问题
呃然后还有第二点是说人
就是你如果看专家的学习的
他其实是一代人比一代人更强的
第一代人
他我要反复尝试
这尝试有点像是一个搜索的一个过程
比如我有一天在野外蹦蹦蹦蹦
蹦到一个地方
然后跳出来一个蘑菇
然后我可能会把这个记录下来
他就变成了后人的一个knowledge
所以人其实学习的高效性
很多的时候
也不是说因为我探索的高效性
而是说
我把之前学习最重要的一些knowledge
记下来然后
后面所有的人的学习效率都提高了
不管是围棋啊也好
音乐也好
对吧
每一代人他们探索出来一些新的技术
他会被记录下来
后边的人就会用上
这种高效的学习方法
之前有一本写的非常好的书叫做pick
就是讲如何做专注的这种学习
我其实觉得大模型可能来训
练之前的大模型
然后用来做出更好的数据
然后再提升自己
然后训练出来下一代的大模型
也可能这会变成一个趋势
但是说到底
我认为还是要解决那个efficiency的问题
就是说我们如何用少量的头盔
获得那么强的泛化能力
我觉得这个是一个圣杯问题之一啊
现在业界有哪些流派
最近其实争议挺多的
我看Yann他之前就是你的博士生导师Yann LeCun
他一直是不太认同纯强化学习的方式
Anthropic
其实他们在Sonnet 3.5之后
它一直还没有特别好的
一个推理模型出来嘛
但是比如说OpenAI O1的这个推理模型的思路
包括这次DeepSeek放出来的
R1的这个思路
我觉得其实在业界
在2024年可能也是一个
就是稍微标准一点的做法了
当然Yann他也有不同的看法
所以我是在想
在整个大模型的这个训练的
范式的转变上
你觉得业界现在还是一个争议很多
大家有完全不一样的思路跟方法
还是慢慢的
就像你刚刚说的
你就没有创新了
大家都是归一了
我觉得有很多创新
只不过说
当你把很多的capital bring进来以后
你说我要快速scale
大家scale的方式
有点让我看起来
感觉好多的时候是有点单调的
创新的点其实还是有很多的
我其实觉得样一直在推动的
叫做世界模型嘛
这个世界模型
其实当时是因为
我们看了David Ha的那个文章
叫world model
我觉得哎
概念上没什么新的
但是名字很酷
一个polish的名字
而不是说几十年前就有的这个概念
然后我们就后来就adopt
这样的一个名字
那在我看来
这个定义其实超级简单
世界模型其实就做的一件事情
就是说给定当前的状态
给定当前的action
就是你的行为
预测未来
当然你能预测的越好就越好吧
但只不过说大家有不同的侧重
这个是一个非常重要的概念
我觉得世界模型是一定应该发展的
举个例子
就是你刚刚定义的那三步
只能举一个具体的例子吗
什么是世界模型
一个具体例子
其实GPT
你可以认为和世界模型相当像
就是generative portraining
它里边的有一个声音
就是说给定之前的context
过去的token
就所有的词
然后预测下一个
网上的各种数据
哎对
我预测下一个
这里面和世界模型唯一的区别就是 -
E179_DeepSeek技术解析_为何引发英伟达股价下跌_(3)
是不可能绕过去的一个点
不管说
我们做大模型的各种各样training
实际上最终
我们希望能让它实现类人的智能
那么不管说
我希望它能够做问答也好呀
我能够预测未来也好呀
然后呢可以去做coding也好
或者说去做这种推理和规划的能力
其实都是希望能赋予他人这样的智能
但是人有一个非常非常的强的能力
就是人的学习的效率极其之高
有两种估算我觉得都是有一定道理的
第一种估算是baby LLM在里边的一个估算是
到人的13岁之前
你所接受的token还是word小于100 million
第二种估算呢
是说假设从人出生开始
每秒钟你可以take in 30个token
大概是10个词
你每天12个小时
20年
这个你最多是10 billion的token
那么这两个数放在这
然后呢我们说Llama 3
它的pretraining
其实已经到了15个trillion了
所以你看我们的大模型
实际上现在一直在操作的一个思路
是说我们要scale
就是更大的模型
更多的数据
更多的计算
然后让我们的模型更强
这个没有任何问题
但是呢你会发现
它比人所拥有的数据的数量级
已经开始大了
3个4个数量级
那么这个时候
可能我们要反问一个问题
为什么人可以如此高效的方式来学习
我认为推理和逻辑
还有规划的能力
可能是
构成这样一个高效性的原因之一
可能还有因果呀
等等的一些其他的原因
然后我认为发展大模型的过程中
如何实现这样的高效
也是非常重要的
所以现在大模型跟
人脑相比
它的学习效率还是低很多
就是至少从数据上来看低很多
几个数量级的方式低
这个非常像当年的蒸汽机
刚一开始出来
我记得我看过一个数
就是早年有一个估算
说它的这个能量的效率是0.02 percent
那到今天可能是有20个PERCENT对吧
哎刚好也差了3个数量级
所以我觉得
什么时候我们对数据的燃烧的效率
可以提高3个数量级
这是当年我跟Yann讨论
他启发我的一个问题
我们有次在吃午饭的时候
聊到这个问题
什么时候我们觉得数据的
我们的燃烧效率可以提高三个数量级
的时候可能这种general的intelligence
或者human level intelligence
就可能更加可能一些了
但是在此之前呢
我认为只有scaling可能是不够的
对我跟大家解释一下
羽北刚刚提到的Yann
是指Yann LeCun
他的中文名字是杨立昆
他是羽北的博士后导师
也是图灵奖得主
跟Geoffrey Hinton和Yoshua Benjo一起
被称作是深度学习三巨头
他同时也是Meta的首席科学家
待会呢
我们会有一部分专门去讨论AGI啊
那个时候我们可以详细展开
聊一下他的思想
那在此之前
我们先把DeepSeek的这部分聊完
我们先说一下开源
你们觉得DeepSeek他选择开源的这条路
它对行业的生态具体会有哪些的影响
就比如说
我知道
最近可能在美国的一个论坛Reddit上
大家很多
已经开始去部署DeepSeek的模型了
然后其实
我很想知道他选了开源以后
这个开源到底是怎么去反哺他
让他能把模型做得更好的
对最近我们其实也部署了一些DeepSeek
这种模型在我们平台上面
我觉得它开源
其实是一件
对整个AI行业非常好的一个事情
因为去年下半年以后
大家会感觉有一点失落
因为AI application看起来都起不来
起不来的有一大原因
就是很多人觉得
OpenAI其实把所有application的壁垒
基本都当打掉了
个百分之八九十吧
就大家其实都是比较惶恐的
就是我做一个什么东西
然后
明年是不是OpenAI出个什么O4啊
什么就把我这东西全部带了
那我如果做这个东西
建立在OpenAI上的话
那就更麻烦对吧
我建立在OpenAI上
它出了一个新的模型
把我的application完全包含进去了
那我在价格上也没法跟他争
我在功能上没法跟他争
那这就导致很多人其实就压手对吧
他就不太敢去做
然后VC也不太敢进来
那我觉得这次DeepSeek给他开源
其实对整个行业的一个好处就等于
就是大家都有了自己的OpenAI
我其实就是作为一个小的
这个application Developer
我不再害怕OpenAI出下一版本
把我淹没
或者把我淹到我没法跟他竞争
或者我的产品就干脆再用他的API
然后我就直接就死了
那我现在用的是一个开元的
做非常好的一个模型
那这样的话
我其实有一定的这种continuity
我就有更大的
更多的信心去做更多的application
那DeepSeek
如果它再能有能力去超过OpenAI的话
那这个事情
我觉得对整个行业就更好了
就等于说是有一条恶龙
现在它不存在了
那大家其实发展的就能更好一些
那更多人用它的
其实它就跟Llama的逻辑是一样的
有更多人用
然后有更多反馈
所以它的模型能做得更好
那DeepSeek它其实也是这样
如果有更多的application Developer
大家都觉得用这个
等于自己拥有了自己的OpenAI
那它收集数据的速度
肯定是比其他的model都快很多
嗯对
现在我们能看到一个开源的模型
它在整个的性能上
已经跟OpenAI的O1
我们说可以说超过或者说接近
但是基本上是同一量级的
对不对那可以预期OpenAI它很快发了
O3 mini之后呢
开源模型可能也会升级
也会有下一个版本
再来超过这些闭源模型
这是我是在想
当一个开源模型
它的性能足够好的时候
OpenAI就是这些闭源模型
它存在的意义是什么
因为大家就直接可以拿到
这个开源模型的底座去用了
DeepSeek的意义在于它的价格降了很多
它是开源的
它跟OpenAI最前沿的这些模型
差不多好
它不是说比OpenAI已经好了
那确实就说它后来这个闭源模型
它有什么意义呢
意义就在于
它可能还会是领先的一个趋势
就像苹果安卓对吧
苹果其实还是比安卓
好的这是leadership and concentrate
它更有可能做出更好的这个产品
但是开源的意义可能就在于
它像安卓一样
就谁都可以用
然后非常便宜
那这样它降低了进入行业的门槛
所以它可能才是真正
让这个行业蓬勃的一个因素
然后这些闭源的模型
它有可能是一直领先的
闭源如果还不如开源
那可能就没有意义
但它应该是有management上面的这个优势
它应该是超过开源
那现在看起来
确实是有一批闭源不如开源的啊
那就自求多福
哈哈哈如果必然还不如开源呢
我也不知道这公司在干什么
你还不如免费好
我觉得开源的生态是非常重要的
因为我除了在实验室以外
我之前参与一家公司叫Aizip
这也做很多的全栈的这种AI应用
然后你会发现一件事情是说
很多这种开源的模型
你直接是无法使用的
就是产品级的东西
你无法直接使用这些开源的模型
但是如果有这样的开源的模型
可能会大大提高
你生产出一个这种产品级的模型的
大大提高你的效率
所以你像DeepSeek也好
Llama也好
我觉得这种开源的这种生态
对于整个的community来讲
是至关重要的一件事情
因为它降低了所有的AI应用准入门槛
那其实见到更多的AI的应用
它有更多的触及
这件事情是对于每一个做AI的人
是一个非常利好的一个消息
你其实不希望就说
我们做大量的training
但实际上real life
里面
真正能用的AI的application非常非常少
对吧
第二是它定价定的非常非常的高
这样的话
对于整个的生态
是非常不健康的一种状态
所以
我认为Meta在做的这件事情很重要
对吧就是它这个Llama
一直在坚持open source构建
这样让所有的AI的开发者
都可以做自己的应用
对吧虽然Llama并没有把这个应用
直接给你做完
他给你提供了一个foundation
foundation顾名思义
它其实就是一个地板对吧
你可以在这个地板之上
你可以构建你所想要构建的这种应用
但是呢它其实把90%的任务给你做好了
我认为更好的
这样的foundation
其实对于整个生态
是非常非常重要的
OpenAI下大功夫来优化的一些能力的话
他依然会有这样的优势
但是
我们也不希望这个市场上只有OpenAI
那对于所有的人来讲
可能都是一个不利的一个消息
还有一个问题是
DeepSeek他们
是怎么把API接口的价格给降下来的
因为我看了一下他的R1官网
写的是每百万输入的Token
缓存命中的是一块钱
然后缓存未命中的是4块钱
然后每百万输出的token是16块钱
然后O1的价格
我整体算了一下
差不多
每个档位都是它们的26-27倍之高
它是怎么把这个API的成本
给降下来的
它等于是从上到下
做了整个的一套优化
从PTX这块怎么调用底下的GPU
到MOE的架构的loade balance整个的它都做一套优化
然后我觉得这里面可能最重要的一点
就是它可以降低了对芯片的要求
就是你本来可能非得在H100上
A100上跑
然后你现在可能可以用稍微低端一些
或者你甚至可以用Groq啊
你可以用国内的那些阉割版的H800
或者H20啊这些卡去跑
那这样它其实就已经大幅度的
降低了每个token的成本
然后它里头如果再做优化
比如切割GPU
virtualize GPU啊这方面东西
它其实可以降下来很多
而且OpenAI内部其实也说不定
人家早就降下来
他只是不想降Retail的价格
这也不确定
我觉得主要就是这两个吧
一个是架构上
一个是芯片可以降级
嗯
那芯片降级
未来会成为全行业
一个比较普遍的事情吗
啊我觉得也不会
因为英伟达的老芯片全都停产
所以市面上其实有限的
就比如你虽然可以说啊
我这个能在V100上跑
但是V100早就停产了
而且每年它要折旧
所以你可能过两年市面上就没有V100
英伟达它只会产最新的芯片
那它的成本还是低的吗
如果你在新的芯片上做一些优化
比如像我们做这种切割GPU
那就有可能会变低
因为它这个模型变小了嘛
就我们最近跑它那个7B的模型
其实就是20个g左右
那我们就拿一张H100把它切了1/3
然后就跑这个DeepSeek
那你成本直接就降了1/3呗
可能我觉得后来会是更多的虚拟化GPU
来降低成本
因为如果只是基于老卡和游戏卡的话
首先游戏卡英伟达是Blacklist
你不能用游戏卡去正规的Host
这些模型
然后你用老卡
就是刚刚说的老卡停产
而且老卡有很多维护啊这些问题
所以
我并不觉得它会成为一个主流的现象
嗯所以
其实现在
你们是提供给大家去做芯片优化
然后来去节省成本的
这样的一个工作的
那你最近客户应该是暴增
你觉得这个是受益于DeepSeek
还是说你们一直在做这件事情啊
我们从去年开始就在搞这件事情
我们也是一直在赌
后面会有更多的小模型
然后刚好DeepSeek出来以后
DeepSeek刚才说就是有带来的一个趋势
也是它会蒸馏出更多的小模型
那大家如果跑更多小模型的话
其实就需要不同型号的芯片
如果每次都去用物理芯片的话
可能是比较难弄的
嗯刚刚其实我们有提到DeepSeek
它让它的整个的API成本降低了吗
你刚也分析过它的这个研究方法
就它的这套研究方法
未来你觉得它们有可能会用到更多的
比如说你们在做GPU的分片
跟客户的一些模型中吗
就是它的这个研究方法
会不会带来整个行业的一次
大家对GPU成本更低的一次节省
你就说它reinforcement learning的那些方法吗
对
应该是吧
就它这个出来了
应该是给行业证明了
现在有更优的RL的一个方法
我觉得
后面肯定会有很多人用相同的方法
去做这
个事情而且
尤其是他自己去调用库的这一块儿
以前可能没有人有勇气去试这件事情
当然他们证明了
就我们这么几个博士生毕业
也可以很快弄一个绕过你们CUDA
那后面可能很多的这种模型
公司都会去效仿
那这样的话应该是大家都这么搞的话
成本肯定会下降
所以我理解训练成本降低了
推理成本也大幅的下降了
对所以
你们现在帮客户
去部署这种GPU的时候
客户的主要需求是什么
简单便捷
很快的部署上来
价格弹性价格低
这个价格低指的是前面部署的
还是说整个后面的一套的解决方案
就所有地方价格低他都是开心的
但是我们只能解决他部署这一块的
这个成本
其实是有很多浪费的
所以我们在做这个技术
就是你比如拿一张A100 H100他都是80个g
但你要蒸馏出来一些小模型
或者就是你就用现有的什么snowflake啊
databricks这种模型
那也就是个10个g
有的还更小
那其实你在80G上
不属于一个10个g的东西
你就等于大部分的GPU全部浪费了
但是你还是要付整个GPU的钱
就假如你用H100
你其实是想用它的那个速度
你想要它那个4纳米那个速度
所以你还是要整张卡租
然后你在inference的时候
你的workload其实是一个弹性的
就是有时候你客户就增了很多
有时候就减少了
那如果你一张卡上
浪费了很多的space的话
你扩的时候
其实每张卡上都浪费了很多
那现在我们在做的这个事情
也等于说是我把它虚拟化了以后
你就完全没有浪费
就等于比较简单粗暴的
解决了很多GPU部署成本的问题
这个领域其实还有一个有意思发现
就是说在过去的6-8个月吧
我觉得觉得这种小模型的能力
进展非常之快
这带来一将来一个变革
就是说我之前一开始说到了
全世界有99%的算力是对大家不可见的
大家不会觉得一个arm的芯片里
一个高通的芯片里面
它有这个AI的能力
那么未来的话
如果有大量的这种小语言模型
然后有各种各样的这种VLM
有Audio intelligence等等的这些能力
可能会越来越多的出现
在曾经不会被用到的这种平台上
那现在特斯拉的车上已经用到了很多
但是越来越多的时候
你会发现手机里耳机里
眼镜里哎
眼镜里这个也是一个火爆的一个单品
现在出来很多眼镜的公司
但越来越多的这些设备里边
也会出来这种on device的AI
他们对于降低成本
提高AI的可用性
我其实觉得未来是有巨大的机会的
小模型好用吗
小模型其实在很多的领域
有很多的基本的应用
你可以发现
当你把小模型给到足够的training以后呢
他其实最终和大模型的性能
其实差不多
说一个具体的应用场景
就比如说咱们现在正在录制这个节目
咱们用到这个话筒
话筒里面会有降噪的这些功能
然后你这个降噪的功能
你可以做出来极限小的neural network
这神经网络
它其实可以就放在话筒里边
你把模型放大10倍
放大100倍
然后你会发现它们的性能差不太多
就是最后的这SNR
其实没有太大的变化
那这个时候
你就可以把它放到这里边了
以后所有的话筒里面
都会跑一个AI的模型
然后它已经把降噪的这个东西做完了
所以越来越多这样的功能会集成进来
比如说小语言模型
我们可以放到一个手表上
那它可以做一些基本的问答 -
E179_DeepSeek技术解析_为何引发英伟达股价下跌_(2)
其实是有一点削弱英伟达互联的
这一块的一个重要性
他现在其实可以说
就是我不同的Expert放在不同的卡上
那我之间这个互联可以做的
不是有那么重要
而且有一些dormant的一些Expert
不用的时候
他就休息了
那这其实对英伟达的互联
这一块的需求
是有一点冲击
另一块就是对CUDA这一块
它其实是告诉大家
现在有这么一种可能
以前大家都没有觉得它可以绕过CUDA
现在来说哎
我们这个团队其实是可以绕过CUDA
直接去用PTX
然后做一些optimization
当然这不是说
以后所有团队都有这个能力
去做这件事情
但他至少提供了一种可能性就是
现在你有可能做这个事情
有可能做这个事情以后
就导致我有可能不需要买英伟达的卡
或者
我不需要买英伟达最先进的这个卡
或者我可以用更小一点的英伟达的卡
去跑这个模型
什么叫做绕过CUDA
他是真的绕过CUDA了吗
就是我听到一种说法
是说其实他用的不是那个CUDA
比较高层的API
但是他还是用了CUDA比较底层的这些API
用词不太准确啊
就是没有完全绕过CUDA的
这个ecosystem
就是它可以直接去调用CUDA
底下就不是刚你说那个很高层那个API
它可以直接去调用PTX
就是在这个instruction set上
头一层的这个instruction set
然后他在这一层直接做一些优化
但是这个也是挺大的一个工程
他并不是说
任何一个小公司
都有能力去做这件事情
对那如果DeepSeek它有这种能力了
业界其他公司会有这种能力吗
就比如说
如果大家现在假设
我买不到英伟达的GPU
我用AMD的GPU去做
那因为AMD跟英伟达
就是你刚刚讲的两个核心壁垒
一个是NV link
还有一个是CUDA
如果这两个都有
某种程度上受到冲击的话
你觉得现在对AMD这样的公司
它会是一个利好吗
呃我觉得短期来说对AMD是一个利好
因为AMD我记着它最近已经宣布
它把DeepSeek给弄过去了
但是长期来看也不好说吧
长期来看我觉得可能还是因为大
因为这毕竟只是DeepSeek这一个模型
酷大厉害的地方在于
它是一个通用的
这种GPU调用的一个软件系统
就是你什么软件过来都可以用酷的
但是DeepSeek这种做法是它只支持DeepSeek
所以你后头有别的模型
你还要再重新识配一次
那我们就是在赌
就是
以后是不是DeepSeek就真的是gold standard了
DeepSeek就真的是这个OpenAI了
所有的这个初创都在DeepSeek上见
那如果是这样的话
那对AMD挺好的
因为它已经移植过去了DeepSeek
但如果后面不是DeepSeek
就比如DeepSeek
其实它的伟大也是在于它对reinforcement learning
GRPO啊这些方法的一些改进
那后面的更多模型
如果都是用这种方法
你有可能来日方长
那不一定是DeepSeek
它如果再是别的模型的话
那别的模型它又要重新适配
那就还是挺麻烦
还不如用CUDA
嗯
所以你的核心观点是它动摇了
就是英伟达的这两大非常厉害的
NVlink跟CUDA
那从GPU的需求上来看呢
首先我没觉得它动摇的这两个壁垒
我觉得这两个壁垒
还是非常坚挺的壁垒
只是它对这个溢价有一些冲击
就是你可能收不了那么高的价格
但是也并不代表
其他的竞品能突然就进来
就是它是一个非常漫长的过程
就是其他竞品做的
跟这两个壁垒不太一样
就是你可以就像我刚刚说的
你针对这一个模型
你可以绕过这个东西
但是没有人做出
就是英伟达CUDA那种就是通用的
我全都可以绕过
所以在这个上面
其实是没有冲到英伟达的壁垒
只是DeepSeek提供了一个
就比如有个墙
现在有一个人
大家以前都觉得翻不过这个墙
现在这个人跳过去了
然后他说哎
你看我可以跳过去
你们也有可能跳过来
但如果这个人开远了
大家开始用他的模型了
但是不行
就是只能他跳过去
不是说就是他跳过去了
别人现在也都能跳过去
这就是这件事情
他为什么冲击了衣架
但是没有打倒壁的
就这个墙没有变低
但这个人现在告诉大家他可以过去了
他说it’s possible to go over
那你们其他人能不能过来呢
我只是提供了一个精神上的一个鼓励
啊就说这件事情是有可能的
嗯
对GPU的需求会减少吗
因为他们这次训练成本低
所以某种程度上
把这个股市的跌也理解成
是不是大家需要更少的GPU
就可以训练出更好的模型了
对就是
如果就是训练这一个模型的话
那是这样
但是DeepSeek出来真正的伟大的意义是在于
它重新激发了做AI这些人的热情
那这么来看的话
应该是会有更多的公司出来
他们会买更多的芯片
所以这件事情有可能是溢价降低
销售量变大这么一个事情
所以那他最后市值是变大还是变小
你就看你中间的这个比例是怎么样
你自己的观点呢
这个不好说吧
这个还是得看application
就是25年大家能玩出来什么花样
如果之前觉得
application出不来的一大阻力是GPU
价格的话
那应该因为大它的市值会涨
就等于现在这个价格变成1/10
甚至更低了
那这个阻力就不在了
但是如果它的阻力是别的的话
那就不好说了
所以其实就是越多的AI应用出来
DeepSeek把这个门槛降得越多
从GPU的需求上来说
整体上是对英伟达更利好的
对因为application出来的这些人
他不会自己雇一个团队
去把DeepSeek干这些事干一遍去
他绕过CUDA去搞什么PTX
就他出来都会是一些很小的这种公司
他只是想要拆箱就可以用的这种solution
所以这样的话它还是英伟达
所以英伟达应该最想看到的局面是
更多的AI公司出来
更多的AI公司出来
他们需要的是模型的GPU
还是更多的推理芯片
我其实个人感觉
推理芯片后面也会是英伟达
我不觉得这些小公司长期有一些优势
他短期肯定是大家都有优势
如果一直是用DeepSeek的话
那确实是有一些
但是长期我觉得推理可能也是因为打
训练也是因为打
嗯为什么推理是因为打啊
就是因为它还是CUDA
然后它还是这个行业的龙头
刚才说那两个壁垒其实也没有动摇
这些ASIC公司主要的是两个问题
一个是软件支持不够
另一个是硬件其实是没有壁垒的
就像我们看一些Groq啊
Cerebras啊这种公司
它们其实是一个大的Wafer上头
然后做这种芯片
当然其实就是在硬件上看来
它只是一个Cuda core
和Tensor core之间的一个比例
它并不是说我在某项上做到了
英伟达做不到的一个东西啊
你比如说TPU
TPU它其实100%都是Tensor core
但是你说英伟达要想做100% Tensor core
它做不了吗
也不是它只是觉得100%都是Tensor core
没有这个市场
所以他如果觉得
就是我哪天想做Groq这个比例
我觉得英伟达要做那个没有什么难度
就他其实硬件上
我身上没有看到很强硬的壁垒
大家其实基本有点趋同的趋势
然后软件上是它另一个大的问题
就这些ASIC的这种公司
软件的维护其实做的都不是特别好
就是连做到PTX那一层的维护
都不是特别好
就连TPU TPU用的也是英伟达的PTX对吧
它的instruction set
所以这两个就导致了
可能英伟达还是一直占有龙头地位
推理芯片对软件的要求也同样高吗
我其实是在想这样一个问题
就是比如说
在整个GPU跟训练的这个芯片上
英伟达有绝对的垄断地位
是因为它的整个的软件
你是离不开
或者很难绕过这一套系统的
但是推理上它方便绕过去吗
推测对软件要求也很高
你还是要去调用
底下的GPU的一些底层的instruction
所以像Groq
他们不是说自己性能很好吗
但是他的软件侧其实还是没有建起来
对
Groq软件侧
比英伟达软件侧还是差得非常远
所以你看他们现
在做的模式其实越来越重
他刚开始就做个芯片
现在他又做了自己数据中心
然后又做了自己的云
他就等于把这一套vertical全部在站着
但他资金跟英伟达比可差得很远
他凭什么能做的更好
那你觉得现在市场上
有非常值得关注的芯片公司吗
我觉AMD有一定可能吧
但是其他的ASIC我觉得可能还差一些
但是就看AMD来说
应该跟英伟达还是有很长一段距离
嗯如果从投资创业这一块来看
你觉得有公司在
芯片未来的推理策他是能成的吗
啊我个人感觉就是
如果要在芯片这块创新
可能更多聚焦在芯片的软件
这块的维护
可能会好一些
而不是去在硬件上做一些比如DDR啊
tensor core cuda core这之间比例的一些调配
我觉得这块其实是没有什么意义的
你等于只是在帮英伟达当一个大头兵
去看一下就这个比例有没有人要啊
但是其实你建立不了什么壁垒
但是软件这块
其实是有挺大的优化空间
就是
你要做出一套比CUDA更优的一个软件
可能这块会有很大机会
但也不是一件很简单的事情
嗯中国的公司有机会吗
华为所有人都有机会
哈哈哈
对我是在想这样的一个问题啊
就是因为美国对中国有芯片禁运嘛
那他们其实也更有动力
去在底层上去做一些研发
包括在软件侧去做一些研发
因为你刚刚提到了
其实芯片侧它的研发
硬件上大家都有一种趋同的趋势
那如果在这样的一种高压的环境下
比如说有一些公司像华为
他们也财大气粗对不对
他也可以在软件侧去做一些重的投入
然后把这个生态给逼成了
啊华为是有可能的
如果中国的话
它硬件上还是需要做出一些进步的
就硬件还是有门槛的
对因为中国连生产芯片的这一块
都被制裁了
它不是说英伟达一家在制裁它
它是从高速内存到芯片的组装
到packaging
到底下台积电这块生产芯片
到ASML卖给它光刻机
它是整条产业链全部在制裁中国
所以中国如果要出芯片
像华为那它不仅是一个软件的问题
它是整个制造的这一条链
全部要搞出来
然后再把软件搞出来
嗯懂了
解释的非常清晰
这次其实DeepSeek出来了以后
我其实反而觉得
对英伟达这样的公司是一个利好
之前的话
大家有一个想法
Transformer出来了以后
哎这七年之内
Transformer的这个架构它没有变化
那么如果以后一直是这样的话
那么对于英伟达来讲
是一个非常不利的消息
因为你像CUDA
它最擅长的一点就是说它是通用性
它支持很多不同的架构
然后所以在模型架构快速改进的时候
这个是对英伟达是最好的
假设一旦说我们从某一天开始
所有的模型的架构不在变了
那你就可以想象啊
那是不是我就可以做ASIC了
对吧
那我就可以专门优化这个Transformer
attention的
这个mechanism
等等的但是恰恰是
比如说像DeepSeek它用到了MOE
它用到了Laten Multi-head Attension
这些对layer进行改进
对这种计算进行改进了以后呢
又回到了一个哎
模型又要改进了
对吧
这个对于英伟达来讲是一个利好
可能会对OpenAI来讲不是非常利好
因为像Sam
他自己也出来说了
如果你能找到比Transformer更好的
这个架构
那我们很多的investment都会in trouble
我是觉得eventually这个架构还是会变
你像DeepSeek这次出来以后
它在推这些架构的改变
包括之前从MOE出来以后
推这种架构的改变
这可能对于OpenAI
这样的公司来讲的话
是一个冲击
嗯对
因为我注意到
其实大家这次说DeepSeek
R1做的特别好的是推理能力嘛
能不能给
就是我们普通不懂技术的听众
普及一下
什么叫做推理能力
就是为什么推理是很重要的
那如果不是推理
它的另一端是什么
推理的话
其实就可以认为是
我要做一个复杂的任务
我直接无法输出这个的结果
所以我可能要中间有些草稿纸
可能要做一些计算
依赖这些中间的过程
我可能输出结果
也可能要做更多的计算
所以基本上就可以认为
不管是推理也好
不管是plan也好
还有reason也好
都需要刚才我说的这样的一种能力
就是说我现在要解决一个问题
或者说我看到一件事情
它发生了
我想知道哎
它为什么会发生
然后你要往前倒在
我的定义里
我管这个叫做reasoning
就是反向的去思考
可不可以用现实的生活举一些例子
比如说数学式推理
代码式推理吗
代码的话
其实取决于这个任务的复杂性
它是否需要中间步
凡是需要中间步过程
我认为都属于一种推理的过程
不需要中间步的任务有哪些
能不能举几个例子
方便大家理解
咱们就以以这种language model agent的一个方式
来举个例子
对吧就是比如说今天的天气怎么样
那么这个任务的话
就相当于是一个非常直观的一个问题
对吧
就是说我现在想知道天气是什么样
然后这个语言模型
它可以直接调用天气的这个API
把天气给我拿过来
这个任务就结束了
它这不算推理
嗯对
不算推理
但是以下这个任务就算是推理
比如说我现在在加州
在Palo Alto
我现在要去纽约
能否给我找一个最快的一条路线
那么你这时候你会发现哎
有几种路线
可能是坐这几班飞机
这么着可以过来
然后也可以是说
我可以先开车到附近的一个机场
然后再去搭乘这样一班飞机
对吧有不同的这种选择
那他就需要一些中间部
调用API也好啊
自己的一些思考也好在里面
对所以发展大模型
最核心的是发展他们的推理能力吗
或者说一个大模型
我们去判断他的一些核心的能力
只有哪几部分是特别重要的
我觉得发展大模型在我看来
有几个非常重要的任务
不光是这种推理
和planning
为什么大家对推理和对规划的能力
非常的重视
因为很多听众可能都听过一个
就是有一篇非常著名的文章
是Rich Sutton写的
叫做The Bitter Lesson
然后我觉得这个写的非常非常好
就是他在2019年写这篇文章
我每年都会让所有的同学
全部重新读一遍
这个文章就是do not try to be too smart
这里边他提到了两种最general的能力
来自于一种是学习
一种是搜索
实际上是学习的过程
你大模型之前的
比如说在这种无监督学习啊也好
他的fine tuning
就是后边的监督的fine tuning也好呢
它其实你可以认为
规划到学习这个方面
那么现在的说的
这种推理和规划的能力
实际上它是一种搜索的能力
所以这两种它都反复出现
DeepMind就比如它冲在前面
其实是它很侧重的是后面的
搜索的这个能力
对吧他如果做这种Alpha Zero啊什么的
做这些Alpha go啊
他做了很多这样的工作
那么这两者结合起来
显然是应该结合的
然后这次DeepSeek R1他也做的是
说是先通过自我的启发式的搜索
然后再通过学习
用这样一个Rule Based的方法
其实把这两种能力结合起来
那么我觉得这是很重要的
但是在发展大模型的过程之中呢
我其实觉得还有一个至关重要的点
我认为如果你想通往AGI的话 -
E179_DeepSeek技术解析_为何引发英伟达股价下跌_(1)
欢迎收听硅谷101
我是泓君
大家过年好
大家春节过得怎么样
我是整个春节期间
都有被DeepSeek给刷屏
而且它其实不仅仅是在中国火
它也是现在硅谷
还有华尔街讨论的热点
那DeepSeek是在1月26号那一天
登上苹果APP store榜的榜首的
从那之后的18天
它的下载量是1,600万次
如果我们对比OpenAI发布
ChatGPT的同期下载量了
它是ChatGPT同期下载量的1.8倍
现在呢已经成为了全球140个市场里面
下载量最多的应用
那DeepSeek引发关注的另外一点
它的出现
也带来了美国科技股的全线下跌
在1月27号的那一天
英伟达它的跌幅就接近17%
市值蒸发了5,890亿美元
按理说像DeepSeek这种低成本高性能
同时还是开源的模型啊
它的出现
应该是带来整个AI创业的繁荣
那市场呢
就应该需要更多的GPU
那所以按照这个逻辑推理
英伟达的股价应该是涨而不是跌
但是为何英伟达不涨反跌呢
这期节目
我们就会详细的来解释这个问题
那除此之外呢
我们也会深度解析DeepSeek的核心技术
以及对整个芯片产业
还有开原生态的影响
在过去的这一周
我们在硅谷
做了10个跟DeepSeek相关的深度采访
我们就不一一在播客里面呈现了
大家感兴趣的话呢
可以去观看硅谷101的视频
我们现在也正在加班加点的制作中
那下面就先请收听我们今天的播客
那今天我们来聊一聊
最近可以说是大家都在热议的DeepSeek
那跟我在一起的呢
也是大家的老朋友
加州大学戴维斯分校
电子与计算机工程系助理教授
陈羽北
羽北你好
你好
对
还有一位是Inference.ai的创始人与CEO
John Yue
John你好
那今天其实正好羽北
我觉得
你可以从模型跟算法的方向来讲
然后John
可以跟我们从算力的方向来分析一下
正好是在两位这个专业的方向上啊
那我觉得
首先
可不可以先总体上给大家介绍一下
就是为什么这次DeepSeek一出来
它立刻不管是在股市上
还是说在中美之间的这个讨论
它都引发了大家的关注
那羽北
你先从技术上给我们简单分析一下
他有哪些比较惊艳的表现吧
我觉得
这次就是引发这么大的一个讨论的话
首先就是DeepSeek
在所有的这些Language model的团队里面呢
它本身不是一个非常的
知名的一个团队
在之前就很多人其实不知道DeepSeek
他们很低调
第二个是说呢
这次媒体报道出来的一个talking point
我觉得是说他们低成本
然后用基本上用不是最好的算例啊
然后用很便宜的价格呢
就超越了OpenAI
那我认为这个呢
可能对于很多不了解以前的
他们的背景的读者吧
他会造成一定的冲击
对整个的股市也会造成一定的冲击
然后第三个呢
是
它确实这次DeepSeek做出来的这个模型
在Benchmark上跟O1达到了一样的
差不多的水平
甚至更好
伯仲之间
所以这个可能对大家也有一个冲击
就是说是不是美国的leadership不存在了
我觉得主要的引发这么大的一个讨论
是从这么几点来的
我觉得就说
这个报道还是有一定的片面性的
嗯对对
我觉得在展开以前我非常想follow一下
你刚刚说的
就是是不是美国的leadership不存在了
你怎么看这个问题
这可能也是大家最关心的一个问题
我其实觉得当然DeepSeek的技术很好了
但是我实际上感觉
就是说在泛化能力上面
我的一个初步的一个感觉
还是说O1的这个模型呢
在一般的任务上的泛化能力
还要更强一点
第二个呢是说我觉得有一点确实是
就说大家在大模型上的这种技术
大家对他理解和技术
或者说做的方法
在一定程度上我觉得这个速度下降了
就是大家想的有点相似
做的很多东西在收敛
那当这个时候的话
他其实不是美国的技术
领先的一个问题
而是说是整个学界大家的想法
这种创新性
我其实觉得在这一点上是有convergence
这个确实让大家会觉得有这么一点
就是slow down
就是会下降吧
整个的速度
你说创新的速度在下降
或者说我感觉大家的想法
很多的时候是有点像没有
那种你说出来
我我压根就没有想到的这种想法
好多时候在这种越来越少了
你指的是
比如说大家都开始认同
强化学习的方式是
是这一点
我自己一点粗浅的理解
这次我反而觉得
这个强化学习
是被大家过度提到的一个东西
当然一会我们可以再说这个细节
但是从DeepSeek这次的进展
我认为虽然这个强化学习
在这里面占了很大的一个比重
但是在我看来
其实是基础模型本身的能力
这个实际上是很强的
你说V3其实已经是一个很强的模型了
对我觉得V3是一个
本身它的基础能力是不错的
为什么呢
因为在如果你仔细看他的这个文章
里面有一个数字
你可以看到
在R1Zero没有进行强化学习之前呢
生成100条
它的成功率如果没记错的话
也已经是在10%左右了
这是一个非常非常显著的一个性能
呃
4o是多少
4o的话
我印象中是最后到了七八十吧
但是呢基本的一个概念就是说
他在前期ten percent是一个非常高的number
在我看来他用了一个GRPO的方法
本身的这个policy gradient
这个方法呢
在我看来
我我的理解是
这也算是一个比较粗糙的一个模型
就可以认为
那后来在网上有
我看到有小伙伴说PPO也可以
就是其他的RL的方法也可以
那么我觉得如果要是这样的话
那其实最主要的这个进展
我认为是在这个基础模型的前期
他已经达到了一个ten percent
我觉得这个是非常好的一个性能了
当模型的基础能力
达到一定水平之后呢
你可以
通过一个这样类似于Search的方法
能够自我进行提升
如果你可以找到一个比较方便的
一个reward的话
就是这种学习的奖励函数的话
那你就可以实现自我的提升
所以
我觉得这个是一个蛮好的一个message
但是我觉得
反而强化学习
在这里面的地位是次要的
所以我总结你的观点就是
你觉得DeepSeek之所以好
本质上还是因为V3的表现非常惊艳
V3的表现经验其实是他们
比如说用MOE的各种方式
去让这个基础模型
它的整体的性能更好
然后R1
只是说
它在这个基础模型之上的一次升级
但是你觉得V3比R1跟R1Zero更重要
我觉得他们都有一些重要的点
V3呢里边的重要的点的话
我认为基本上都在
和model架构的efficiency上的提升
我觉得在V3里面的话
有两个比较重要的工作嘛
就是一个是MOE
以前的话
你会发现不同的Expertt
它的load balance做的不太好
所以
当你把它分散到不同的节点上的话
它的load balance会有问题
所以他们在这一点上
做了一个load balance的优化
同时呢它在Attention的这个layer的话
它要节省这个KV cache
其实也是在提高这个架构的efficiency
就是它的性能吧
这两点作为它的核心的创新
然后使得它在一个600多B的
一个Megatron级别的这种大模型上
然后它的基础模型的表现其实已经挺
不错的了
那么这次DeepSeek R1Zero的时候呢
他们其实做的第一件事情就是说
我先设计一个非常简单
直观的奖励函数
那管它叫做rule based这种奖励函数
对吧然后基本上就我刚才说的
你要保证你回答的这个数学题
它要绝对正确
你的回答格式也要绝对正确
然后呢他一个基本想法
就是说我就用DeepSeek V3的方法呢
每次你问我一个问题的时候
我回答他100条
然后我再从这100条里边去寻找
那些增强这些回答对的回答的比重
就是实际上它绕过了reinforcement learning
我认为就是强化学习里边
最难的一个问题
就是稀疏的奖励
就比如说我回答100条
回答1万条他都不对
那么我其实就没有办法去提升了
因为我根本就没有一个学习的方向
因为所有的时候都是错的
对吧反而是说
如果我做的这个任务
已经有一定的成功率了
我加强这些成功率的这些部分
我觉得这件事情
就使它从一个稀疏的奖励
变成了一个比较稠密的奖励
同时我也就不用再用去搭桥去建模
去学中间的一些奖励的函数了
所以我感觉就说
这里边是一个
他的借助V3的基础的能力
有一个挺大的提升
同时呢在R1Zero里面告诉我们
如果一个模型的基础能力已经不错了
那么我是有可能通过这个模型
自我进行提升的
其实这种思路和model predictive control
和世界模型啊一些想法
其实是有很多的相似之处的
只不过是
我现在在这里
解决了一个最简单的一个问题
那么第二个
我觉得看似是一个显而易见
但是这次也产生了很大影响力的
一个结果呢
就是说我可以先训一个这样
600多B的一个大模型
然后我让他用自启发的方式对吧他
因为他可以回答100次
然后用Bootstrap的方法
逐渐提高这个能力
从原来10%
可能后面提到百分之七八十
用这样的一个方式呢
我先学一个大模型
然后我就可以用大模型去教小模型
然后
他们后面做了一个非常有意思的实验
就是说在Qwen上面做了到1.5B
一直到三十几B
然后这样的模型
他们都做了这样的一个distillation
蒸馏学习
你用大模型学出来的
这些reasoning和planning的能力
你可以来教这些小模型
提升他们在相关问题上的表现
我感觉是一个相对来讲
比较容易想到的一个点
因为其实在所有的自我增强的这种
或者说monopredictive control啊
model based RL啊等等里边
面临一个核心问题
就是说如果你的模型不够好
那么我在上面提升的话
我就刚才又说的这些方法
这种通过search搜索的这种方法
其实表现都不会太好
但是你如果用一个大模型
他的搜索能力可以了
对吧
他本身的自己的模型表现好了以后呢
然后你已经学到的这些能力
你直接教给小模型
这个是可以的
嗯所以我听下来
觉得DeepSeek整体上它是一个组合
拳就是它每一步跟它接下来
比如说它从V3到R1Zero到R1
每一步它的方向上
都是有一些策略上的可取之处的
那你觉得在硅谷的这些公司里面
比如说像OpenAI Gemini
或者像Claude.AI
包括Llama
他们有去沿用这样一套
就是train模型的整个的方法吗
呃我觉得是有的
就是说很多的这种想法
其实都是在之前的工作里面都有
比如我印象中在DeepSeek
V3的这个模型
他们用到了Multi head latent tension
之前应该Meta有一篇工作专门讲的
就是一个Multi token的一个layer
其实也有相似的效果
我应该有很大的借鉴
然后reasoning和planning的话
之前也有过很多这个方面的工作了
当然这个process的这个reward呀
像这种model base方法呀
我其实恰恰觉得这次DeepSeek
R1Zero它们取这个名字
在一定程度上和这个Alpha Zero有点像
你们是什么时候
关注到DeepSeek这家公司的
以前他们应该就一直在发一些文章
但是真正特别仔细的关注
还是最近的事情了
就是之前一直在V3啊
V3出来开始
但之前应该也有一些文章
他们应该一直在发
嗯之后呢
我应该是12月的时候听说的吧
也是V3
对V3
但是当时也没有很注意这件事情
因为大家都觉得可能美国还是AI领先
很多国内模型虽然说跑分跑得好
但是大家也不知道到底是怎么跑的分
却没有很多心情去关注
而且尤其对我们就是客户
如果不提的话
我们也不会去深入研究这个东西
但他这个应该是就是微软的那个CEO
最近发了一个Twitter
那个发完以后才火起来的
他其实火了好几波
我是在2024年的年终
就不停有人发给我DeepSeek的文章
其实当时就是还有一个硅谷的媒体
叫SemiAnalysis
他们就写了一篇文章
就是说V2是他们见过的现在最好的
质量最高的开源模型的文章
那个时候大概2024年的七八月份有一轮
然后V3
我印象中
最开始是像Andrej Karpathy
他们几个意见领袖
在Twitter上说啊
这个模型很棒
然后开始把V3带火的
之后股市的英伟达的价格跌
其实是在R1出来之后的几天嘛
我其实是在想
这个市场它是怎么发生的
为什么在这个模型出来
差不多之后的一个多月
才引发了股市上的连锁反应
我还是感觉
这个媒体的报道
给大家的一个印象是说DeepSeek
他用了很少的钱做出这样的大模型
就好像说OpenAI
你烧了这么多钱
然后他做的跟你一样
对对对对对
第二个印象是说
其实我觉得整个market是emotional的
就是很多人
他可能过来会问我这样问题
说
DeepSeek是不是不用英伟达的最好的芯片
但是我说它背后的资方是幻方
对吧那我们又知道
幻方实际上是它是算力的一个大佬
这个也可能报道
也会对于不了解幻方的人来讲的话
对心理上会造成一定的冲击
所以我认为
首先训练所花的
总共的研发的成本是不低的
第二个事情是我认为啊
如果没有搞错的话
就是
也确实用到了英伟达最好的一类芯片
那么从这样的两点出发来讲的话
我其实觉得
市场是没有必要因此而恐慌
对吧就是说啊
英伟达的芯片不再被需要了
随便出来一个小的团队
就可以花几百万美金来挑战OpenAI了
如果公众是这样的印象
造成这样的恐慌的话
我觉得是没有必要
嗯
我其实是想问一下John
就是因为你是做GPU的
就是你觉得R1出来
对英伟达它到底是利好还是利空
就为什么它的股价会跌
这应该是一把双刃剑
就是有利好也有利空
利好这边就很明显了
就是DeepSeek出来
其实它是给了人们很多的想象空间
以前很多人都已经放弃做这种AI model啊什么
现在它其实是属于给了大家很多信心
让更多的这个初创出来
可以去试探更多的
这种application的
应用层面的一些possibility
那如果有更多人做APP的话
那其实
这是英伟达最希望看到的一个局面
就是AI整个行业被盘活
那大家都需要买更多的卡
所以这样的话
其实看起来是对英伟达更好的
那更差的这一面就是英伟达的溢价
确实是受到了一些冲击
但是这里头
可能很多人刚开始是以为
它的壁垒被冲倒了
所以一下就跌了特别多
但是其实啊
就我感觉也不是说壁垒被冲倒了
没有那么严重
壁垒是什么
就是英伟达
它其实是有两个最大的壁垒
一个是它Infiniband 芯片互联
然后另一个是CUDA
是它那整个一套调用GPU的这个系统
就是他跟AMD啊这些其他芯片公司
其实已经不是在一个层面在竞争的
因为其他的人都是在争
就是我单张卡我的性能怎么样
但英伟达其实争的是
就我互联的这个技术怎么样
然后我的软件调用软件
Ecosystem的这个维持是怎么样的
所以英伟达真正是这两个壁垒
那这两个壁垒
DeepSeek其实都有稍微冲击到它的溢价
但并没有把它的壁垒给冲垮
就是怎么冲到他议价呢
刚才一位说他那个MOE做的优化 -
E178_智能眼镜大战CES_靠AI不如产品硬(4)
对有一套文化
有有经验的师傅
可以带年轻的徒弟
公司内部鼓励年轻的人提出新的想法
创新性的去解决问题
大家非常讨厌
你去抄袭别人想要的方案
因为所有的类比借鉴
都不是第一性解决问题的方法
OK理解
我们再把话题收回到CES
其实今天我们俩录CES这期节目
就今年我是没有去CES的
我发现很奇怪
就是我每次没有去CES
然后非常想了解发生了什么
因为看见大家都在讨论嘛
我就会想要去录一期CES的播客
但是我自己去CES
比如说去年我其实是有去CES的
但是最终
我们其实播客
是没有出跟CES相关的节目的
原因是我仔细想了一下
我自己对CES我是有一种疲惫感的
这种疲惫感是每次去了大家都会问
说啊你有看到什么好玩的产品
眼前一亮的产品
非常有价值的公司
然后我自己的答案就是
确实有那么一些
就是让我觉得OK
它很出彩
但是它其实没有那么让我兴奋
跟它有惊艳感
我仔细想了一下这个原因
我觉得CES上去的这些公司
它的营销的比重会非常大
然后它为了突出它的新功能
技术上的产品特色
它反而会忽略了消费者的需求
就简单来说
我觉得CES更像是一个营销的会
当我们在真正关注产品创新
你所有的产品细节
做的是不是好的时候
就是我在CES上的体会是非常粗糙的
因为你去年去了
今年也去了
就是你自己在那个活动上
你真实的感受是什么样的
我真实的感受首先是这样子的
就是CES其实对于很多创业公司
尤其是早期公司
是获得曝光
甚至是获得融资
获得市场关注的很重要的一个渠道
尤其是很多中国背景的公司
可能平时也没有长时间
能够泡在海外市场跟海外的消费者
海外的渠道
海外的媒体进行这种深度的交流
所以很多创业公司
本来就是把CES当做一个他们宣发
触达的一个途径之一
那这样子带来的一个情况就是说
当这个市场很热
就用消费型的硬件创业
很热的时候
会有很多创业公司带着各种粗糙的
或者是博眼球的想法来到这个市场
我举个例子
比如说去年
应该有蛮多的
中国背景的人形机器人创业公司
在CES上面进行展示
其实到今年你会发现
人形机器人公司的展台的数量
可能是降低了
但是真正还在展览的公司
比如说像宇树
比如说像云深处
他们的实力和他们的产品成熟度
其实是得到了更大的增强
也就是那些可能希望博一些热点
蹭一些热点
特别初期的公司
其实已经逐渐被市场淘汰了
他们已经不会再来参加第二次CES了
那还有一个投资人
跟我讲到同一个事情
也是非常relevant的
他说在去年CES的时候
有非常多的创业公司
在做割草机器人和泳池清洁机器人
让大家的感受就是
好像这个领域里面创业非常热
一下子出现了十几家公司
然后到了今年
大家发现
可能割草机和泳池清洗机器人
来参展的厂商明显变少了
这背后意味着什么
其实这个answer
因为我们投过一些这个领域的公司
我们知道这背后的结果是非常简单的
是因为那些真正有销量
有品牌的公司已经崛起了
那留下来继续参展的一些头部公司
无论是从产品规模能力来讲
其实都上了蛮大一个台阶
今年在Venetian hall的那个二楼
我觉得中国的几个厂商
不管是扫地机器人的厂商
割草机器人的厂商
还是泳池清洁机器人的厂商
几个头部品牌的展台和规模
是显著比去年增加了
所以同样的事情
我觉得今年的AI眼镜也好
智能眼镜也好
是同样的story
我觉到明年的时候
很多公司会消失不见
但是那些真正留下来的公司
可能会有更好的产品
所以对我来说
可能CES是一个
获得每年创新热点的一个渠道
但是你很难说靠这个渠道来告诉你
哪些公司更值得投资
但是他能够给你指引一些
未来一两年可能发生的一些趋势
我觉得你不用去你也知道啊
哈哈哈
可以看到
市场上对这些公司的一个反应吧
我觉得CES里面比较明显的一个结果
我们的确也从投资端
从业务端看到一个情况
就是中国的科技产品在越来越主流
越来越掌握科技产品的定价权
我们看到更多的这些中国公司
其实在各自的品类都占据了高端
或者是高溢价的这个价格段
包括像石头、星迈、库犸
我觉得一系列的公司
在他们各自品类里面
其实都是卖的比可能市场的peers
更加的贵
然后有更高的premium margin的一个状态
嗯我其实还在想我刚刚的那个问题
就是
为什么我会产生比较强烈的疲倦感
有一个原因
可能是因为整个我们的播客
他是非常关注前沿技术的创新的
就是我们想去报导
那些非常有颠覆性创新的公司
但是通常来说一个前沿技术
包括我们今天说的生成式AI
你让它真正的去跟一个消费品结合
是很难的
因为消费品要卖给ToC的消费者
更需要的是
一个相对已经成熟了的科技
对
你这个观察是很fair的
如果从前沿性来讲
可能大家会去关注人形机器人
会去关注一些具身智能的最新的变化
算法上的一些结构
一些突破一些概念
但是你从一个消费产品
消费电子的角度
真正要卖给用户
大概率是一个很成熟的技术
很成熟的方案
然后以尽量低的成本
尽量快的方式能够触达到消费者那里
这是为什么
可能从扫地机身上面增加一个手臂
对于扫地机来说
已经是个巨大的突破和创新
但是可能站在一个前沿人形机器人
或者通用机器人的研究的角度来讲
这是一个非常小的一个尝试
是的是的
好的我觉得今天聊的挺开心的
好谢谢谢谢
那这就是我们今天的节目
如果大家对CES
或者智能硬件有什么样的想法
欢迎给我们写评论写留言
那如果听到这里
还没有关注我们的播客
大家可以通过小宇宙苹果播客Spotify
还有YouTube上搜索硅谷101播客
来关注到我们
感谢大家的收听谢谢 -
E178_智能眼镜大战CES_靠AI不如产品硬(3)
就是你做Google Glass的那个时间
其实
谷歌是第一个真正做出来一款纯的
非常智能的AI眼镜的厂商嘛
我觉得Google遇到的问题
跟Meta遇到的问题是类似的
两家公司
作为盈利性非常好的互联网公司
它的核心能力和核心组织
不是围绕着
打造一个消费硬件而设计的
比较残酷的说
整个Meta的Reality Lab
就是整个Oculus这个division
VR这个division的经营效率和研发效率
是非常低的
相比一个无论是像苹果还是像大疆
或者像特斯拉
这样的硬件产品公司而言
我认为在Google遇到的同样的问题
就是因为
硬件其实是对于成本效率生产的节奏
研发的节奏有明确的要求
我很难想象
在Google能够在这个领域迭代这么快
中国的厂商竞争力如此之强的基础上
谷歌能够独立的做出一款
获得几款非常好的产品
且还有性能和价格的优势
我觉得这点是很困难的
包括Meta Rayban也是同样的问题
Meta Rayban估计
每副眼镜给集团带来的亏损
应该是不低的
以目前的研发和供应链的效率
所以我很难想象
就变成一个独立的很大的生意
未来有盈利的可能吗
我觉得Google的策略跟安卓系统一样
跟Pixel手机一样
这从来不是一个盈利中心
Pixel手机对于Google来说
是要推动Google的AI生态的成立和普及
如果Google不自己带头去做这个事情
很多厂商是不愿意follow的
我觉得AR眼镜可能会遇到同样的问题
Google需要展示出来
它的AI的能力和云的能力
和操作系统能力
怎么样可以快速的赋能一个智能眼镜
所以10年前我们做Google Glass的时候
其实很长的目标
是把它做成一个样板工程
如果这个样板成功的话
我们才能够吸引10家
100家意念厂商来进入这个生态
就像后面安卓手机的生态的繁荣一样
所以我觉得在这个生态的早期
Google是需要做一定的样板项目
但是它的终极的目标
一定不是
自己做成一个盈利的business unit
或者说我对于Google也好
Mate也好这样的互联网公司把这个devision做到盈利
我是非常悲观的
嗯了解
那你觉得今年在整个CES上
你还有看到什么比较AI native的智能硬件产品吗
我觉得今年看到非常明显的一个爆发
是陪伴型机器人的爆发
有非常多的厂商
国内和海外推出了形态各异
用户价值有巨大差异的
陪伴型的机型产品
无论是拟人的还是仿生的
还是以特定人群
或者说特定的场景为导向的产品
不可以举几个例子
比如说你看见有什么比较陪伴型的
让你眼前一亮的产品
其实我理解
我们
如果能跟一个智能音箱去对话的话
它可能都是一个陪伴类的产品
比如这次我们看到一款产品
我们也关注很久的
一款桌面陪伴型机器人
叫做Looi
它的形态像一个可以移动的手机支架
然后你可以把一个iPhone
贴在这个支架上面
它就变成一个桌面
可以移动的小机器人
然后它的场景就是在一个桌面的场景
那这就包含了可能你工作学习
私人独处的一个环境
对于这样的一个产品
我们发现
一个用户跟这个机身
产品的交互的习惯
或者预期
会发生变化
如果是一个有多人的公共的场景
和一个私人的一对一的场景
用户其实会调动这个机器人
或者跟这个机器人交互的主动性
和频次会有显著的区别
我觉得这背后其实说明呢
它不是一个像智能音箱一样的
一个简单的可以被唤醒
或者说实施具体任务的一个
效率性的工具
其实之前日本有一家公司
做的陪伴型机器人Lovebot
售价非常贵
他们今年应该没有来CES
但是这个产品
其实在一定程度上
论证了它的产品定位
或者产品价值
是有一群用户高度的认可和接纳
它是一个40厘米高
像一个蛋形的移动机器人
可以在地面移动
它也可以被抱起来
机器人外面有不同的服装和服饰
机器人上面有非常多的传感器
也有可以交互的表情和肢体动作
这个产品其实很有意思
就是对他特别喜爱
或者说特别有依赖感的
大量的用户群是40岁以上的女性
我觉这样的产品不是一个功能性导向
或者说效率性导向的智能音箱
可以替代的
嗯就是它的拟人化
服饰啊表情啊这些
可能就是一个定位
就非常陪伴类的产品
软件怎么样
真的够智能吗
它不需要智能
比如像这样的产品
它是不能说话的
它一定要跳出
我们对于它
作为一个拟人化产品的预设
它的对标可能是一个小猫小狗
这样的宠物型的产品
它要萌
对
其实这种产品
我还是把它定义成一种智能潮玩
和智能硬件的一种结合
智能潮玩包括像手办
它给用户带来的情绪价值
可能跟这个IP跟内容相关
那对于一个情绪型的产品
其实它的萌
它的毛绒感
动态形态的这种变化
其实trigger用户的这种情感反应
是很神奇的一个效果
这种产品可能只有当第一手去体验
去感受的时候才能够
感觉到这种产品的神奇之处
嗯
你觉得这种产品
跟AI的关系是怎么样的
AI在里面它是一个强驱动因素
就它会带来整个产品
比如说销量
从一个不太好用
变成一个非常好用的产品
还是说其实AI在中间是无关紧要的
它的整个产品设计才是最重要的
我认为两个都非常重要
产品设计就像动画设计一样
我这里举一个例子啊
我们看过迪士尼出品的机器人总动员
里面有一个非常可爱的机器人叫Wall·E
这个机器人的设计
从它的运动神态
外观和互动的方式来讲
他都有一套非常独特的角色定位
和角色感觉
其实Wall·E在整个电影里面
是没有开口说话的
但是他有非常多的姿态
表情和情绪的表达
是非常吸引用户的
形成了很强烈的情感上的冲击
或者连接
如果我们以电影里出现的
Wall·E作为一个陪伴型机器人
一种方向的例子来看的话
要实现这样一个产品真正打动消费者
他一定需要非常巧妙的产品结构外观
工业上的设计
这个产品如果他真正实体化
它的可量产性耐久性运动性的体现
一定是非常关键的
这个会是这个公司能不能量产
能不能发布的很重要的一个要素
但同时
对于用户期望跟他产生的这种互动
能不能得到相应的响应
能不能有比较智能的交互或者说反馈
我觉得也非常的关键
这背后AI处理的能力可能非常的多
为他需要声音视频
环境空间的各种感知
可能对于不同的用户
他的身份
他的语音他的情绪
甚至整个外部的环境
空间的环境有认知
才能够输出一些非常简易
但是恰到好处的反馈
所以我认为这里面
其实产品需要创新的难度是很大的
这是为什么
在这个品类里面
我们看到非常多的公司
在进行早期的尝试
但是很难说
哪一家公司找到一个清晰的winning formula
这种类型的产品
跟效率导向跟功能导向产品很不一样
比如说清洁机器人或者说割草机器人
他们对于用户价值
或者用户需求的定义会更加的清晰
优化的方向更容易寻找
但是对于陪伴型的机器人
因为他需要解决的用户的痛点
或者陪伴的人群
甚至是使用的场景都是不一样的
所以这样的产品
我就需要更多的心思理解
就是AI其实它也赋予智能
但是它赋予的智能不是智力超群
而是可能是情商超群
或者它能赋予的这个语气词啊表情啊
就它要调的方式不一样
对
然后我们刚刚其实说到了
很多创业公司的产品
你觉得这次的CES
从大公司的维度
你有没有看到一些有趣的
整个产业在发生变化的一些新的趋势
今年大公司我可能关注比较多的
还是英伟达的几个重点的发布
包括Jensen Huang黄仁勋的演讲
和他们宣布的几款新的产品
有一款跟机器人相关的
Cosmos物理AI大模型
我觉这个产品
可能对于未来进行这种自动驾驶也好
移动机器人也好的开发
或者说训练会有蛮大帮助
我觉得
英伟达在智能机器人整个生态里面
是占据了一个非常好的生态位
他们非常注意开发工具链
而不是训练模型
本身
就是他们希望提供好的工具和能力
帮助他的用户去训练更多更好的模型
从而采购更多英伟达的GPU
英伟达的处理器
而不是自己去训练一个大的模型
给所有的人使用
所以这次看到英伟达在工具册上面
有更多的发布
我觉得会进一步的帮助
可能未来一年到两年
更多智能型的机器人的落地
之前英伟达推出的Isaac Sim
是一个机器人的仿真训练环境
虽然很多学者和用户啊
也非常抱怨
说这个产品的成熟度啊易用性啊
都并不是很好
但实际上这种工具的出现
是过去两年
非常多足式机器人
效果进步的最根本的原因
因为有了好的训练仿真环境
让国内外更多的机器人的学者
可以快速的利用
强化学习
利用仿真的这个能力训练出好的祖师
机器人的控制算法
或者说控制协议的最重要的原因
所以整个英伟达
它的布局还是很聪明的
它其实是给所有的创业公司提供工具
对我觉这个比他单纯的卖模型
或者卖处理器来说更加重要
当它的工具链
成为所有公司开发新型的机器人产品
新型的智能硬件
必须使用的工具的时候
我认为它的处理器和GPU的生意
就会有很好的支撑
嗯对
其实刚刚我们也谈
到了非常多的智能硬件产品啊
然后我们也提到了
像英伟达这样的公司
它会帮大家把底层的东西
比如说你的整个的工具链
包括到芯片层怎么组合
软件平台就类似于这样子的一部分
全部都搭好
同时呢我们在聊到智能眼镜的时候
我们也提到了
它很大程度上也依赖于整个供应链
它的提升跟创新
那你因为也做很多智能硬件的投资
然后我知道你也投了很多好的企业
你怎么样去判断一个人
他能不能做成一款好的智能硬件产品
对创业者的判断对吧
对对对
我觉得一个好的智能硬件创始人
一定得具有几个基础的能力
首先他必须非常关注用户的真实需求
而不是自己的幻想
所以要求他有很好的用户同理心
不能有太大的ego
我认为这个无论是硬件产品
还是软件产品
都是产品经理必备的一个能力
但是可能对于硬件产品来说
它的代价更高
因为一旦你不能清晰地定义用户需求
寻找用户的痛点
那么对硬件产品来说
它迭代的代价和成本会更高
软件可以不停的升级迭代
但是硬件你整个供应链就要重塑
是的所以
我们看到一些
可能不太称职的硬件产品经理
当他在描述一些功能和需求
或者说技术实现的时候
我觉他很多时候
没有真正代入一个用户的场景
或者说用户的一个确切的需求上
而这种代价
这种验证周期是非常长的
可能在他把这个样机做到一个可以
交付的状态之前
其实他自己很难去思辨这个过程
所以导致这样的公司
其实失败率特别高
当然
今天有一些办法来降低验证的周期
或者说难度
比如说做快速
做一些MPV
或者是通过一些众筹
通过一些用户测试来得到验证
MPV是什么
一个Minimum Viable Product
就是把一些核心的功能核心的卖点
以一个Mock up或者一个3D打印的模型
或者是一个简易的Demo得到呈现
我觉对于硬件产品来说
能够快速的做出一个MVP
可能比软件产品来说更加重要
因为它一旦大的方向跟需求
没有找对的话
它的成功概率就非常低了
然后从创始人的角度
我们非常关注一个好的硬件创业者
他是否有第一性思考的能力
能不能对于技术工程有非常好的拆解
有好的空间结构
产品的品味
也包含他对这个产品的美感
和整体感觉的判断
我觉这里面
其实对于创始人的能力和天赋
还是提出了蛮高的要求的
当然除此之外
一个硬件产品要真正从设计到生产
到量产到销售
有非常长的环节
我觉得一个好的创始人
一定也是可以吸收
一个全站能力的团队
有好的领导跟管理能力
这也是非常重要
可能到最后呢
我就做好一个产品
跟做好一个公司可能还不太一样
我们见到一些非常有天赋的硬件
产品经理
可能他们能够把一款产品做成功
一款产品就能做到10个亿的收入
但如果他没有好的管
理能力没有持续研发能力
他的公司大概率也不能成功
消费硬件或者智能硬件
整体来说是一个竞争非常激烈
迭代非常快的行业
如果这个团队不能持续的成长
我就会很快的被竞争所淘汰
嗯
听上去挺不容易的
我总结一下
你其实是需要天才级的产品经理
加上他同时一直在保持学习跟迭代
对我们其实大家都喜欢天才对吧
但是天才也有很多代价
就是天才往往会非常多的短板
非常多的盲区
所以我们发现
对于一个长链条的硬件产品
怎么样补足它的短板
怎么样降低它的盲区是非常关键的
嗯
在你过往的投资中跟你见过的人中
你觉得谁是符合这样定义的人
天才的硬件产品经理
我觉得Bambu Lab
拓竹科技的陶冶是一个很好的例子
当年他在大疆的时候
就完整的参与了
包括像Mavic和早期的动力系统
一系列的核心的研发跟产品的定义
也有一个成建制的团队
跟着他一起做3D打印机的创业
我觉他在技术的深度
对于技术的洞察
工程能力的把握上面
都有非常好的能力跟品位
我觉得这样的创始人
在市场上是非常稀缺的
嗯能不能讲一下他具体好在哪里
我觉得市场上
做3D打印的机器的公司有很多
为什么
就是你觉得他是一个天才级的人
就他们是一群
或者说整个大疆出来的公司
我们投了好几个大疆出来的公司
大疆是创始人
是汪滔个人意志的一个外化
他在早年做无人机做飞控的时候
就是一个非常追求技术
卓越的一个风格
然后他把这个文化
是影响和蔓延到了这个团队
我们看到包括像陶冶
包括像我们投的微机动
就他们在11年到15年左右加入公司的
这群人
其实是蛮受到公司的早期文化的影响
所以大家做这种消费硬件
整体的这个能力深度
我觉跟别的公司
别的创始人差距还是非常明显的
大家思考问题极度的第一性
极度的追求更好的结果和性能品质
这种文化很难在别的公司里面重现
他们商业上成功
只是他们能力中的一个结果
就是为什么拓竹
能够一年有超过50%的market share
有这么高的定价力品牌力
是他们产品竞争力的一个结果
但是产品竞争力
本质上是组织能力的一个结果
我见过中国非常多的科技公司
我觉得
真正有能力培养硬件工程师的公司
是非常少的
大疆肯定是其中一个
就是一个应届的理工学生加入大疆
能够接受的训练和成长
我觉得在其他很多环境里面
是实现不了的
嗯就是
它有一套做硬件产品的人才的培养体系 -
E178_智能眼镜大战CES_靠AI不如产品硬(2)
在地毯吸尘的核心功能上
我认为在过去几年
以iRobot为例的海外品牌
其实整个迭代速度是比较慢的
那中国的几个品牌
其实一开始是在国内市场
得到的快速发展
因为国内市场一开始的时候
扫地机器人的收入率是很低的
那随着全局建图
扫脱一体的机型的普及
中国市场的渗透率
带来了一个快速的提升
可能从不到一两个点
提升到了接近10个点的水平
而在国内
以云鲸为代表的扫拖一体的机器人
其实解决了中国场景
拖地的这样一个刚需
那因为有拖地的需求
也带来了上下水拖把
清洁机器人基站的这样一个需求
所以我觉得
可能从过去几年的创新方向来讲的话
国内的这些领先品牌
首先还是满足的
国内市场的创新的这个需求
那么也是随着他们进一步的走向台外
我认为会逐渐出现更多的
为海外家庭的这个场景
进行优化的产品
今天这方面的定制设计还是比较少的
嗯对
我们刚刚其实提到iRobot
它自己是占有海外市场很多年啊
其实之前我跟美国的一些律师也聊过
他们有提到
为什么
比如说美国的整个的扫地机器人
还有iRobot创新的进展这么慢
就是因为他在早期做这一块的时候
他其实是为自己的扫地机器人的
很多技术
细节的设计
申请了专利的
那么中国厂商
其实他在想要进入海外市场的时候
他就需要等他的这个专利过期
或者是打专利的官司
所以其实是在好几年里面
海外的产品都是进不来的
但是反过来看啊
我确实又觉得
正是因为这种专利的存在
它让整个市场的创新
反而变得更缓慢了
扫地机目前的核心专利
对于以科沃斯
石头追觅为代表的中国厂商的限制
今天有多强的力度
还是一个值得讨论的问题
我知道iRobot的在几年之前
是起诉过多家中国的扫地机公司的
但是不包含刚才提到的
所有的头部品牌
其实从专利保护的角度讲
它对于长尾的品牌
一些代工厂商或者是方案厂商
其实打击力是更大的
对于头部的品牌
因为头部品牌有自身创新的能力
然后头部品牌也在一些新的功能
新的结构
比如说在过去五六年
广泛出现的一些新的结构
新的创新上面也申请了大量的专利
据我了解
其实包括iRobot
跟科沃斯和其他一些品牌
其实是有交叉专利授权的
所以在今天的角度上讲
我认为
在扫地机器人的一些核心专利上面
对中国厂商的影响力也比较弱
更关键的还是自身创新的速度
我认为今天其实以扫地机器人为例
我们看到一个明显的现象是
中国厂商的创新速度和迭代速度
可以达到海外厂商的多倍
甚至10倍以上
当他有这样的一个迭代
和创新速度的差距的时候
我觉得海外厂商的创新法力
几乎是一个必然的过程
嗯明白
然后我们刚刚其实是从扫地机器人
要不要加可以剪袜子的手臂
聊到了整个扫地机器人的创新
那今年其实还有一个非常核心的创新
就是AI眼镜这块
你可不可以跟大家分析一下
今年其实我们看到
有很多的智能眼镜的公司参展
根据他们的产品侧重点
你会怎么去分类
跟定义这些智能眼镜公司
因为我们抛开细节来看
每一家公司
它虽然是做的名字都是一个东西
但是其实非常不一样
就是你觉得
在这样的一个非常拥挤的赛道里面
可能几百家公司在做
最终谁能跑出来
就是能不能讲一下
你在CES的整个的见闻跟感受
对
AI眼镜是这一届CES非常火的一个领域
简单的说大家可以分为几个类别
一个是以摄影为主打的形态
比较类似Meta Rayban这样的产品
以一个眼镜或者太阳镜的一个形态
增加了摄影和一定的处理的能力
第二种产品是具有AR显示能力的产品
这里面包括像Rockid Xreal
还有其他一些AR眼镜品牌
这里面可能主打的是一些空间计算
包括观影和游戏的需求
还有些新的品牌
在做一些新的显示方面的尝试
比如说这次
也看到了国内一个品牌叫Gyges Labs
他们推出的Halliday AR眼镜是比较创新的
有一种新的投影的一种方式
跟传统的AR眼镜
或者说这种摄影眼镜有不一样的
用户体验
或者说嗯
显示设计
整体感觉
之所以会出现这么多的AR眼镜公司
或者智能眼镜公司
我觉得底层还是因为
整个供应链的成熟
以及中国的无论是方案公司
还是代工公司
生产制造公司的能力的外溢
让一个有产品想法有设计想法的公司
可以非常快速的
实现一个智能眼镜的设计和交付
所以我们看到
在现场可能有实体产品展示的
可能至少有20家智能眼镜公司
绝大部分都是中国的品牌
然后我们也看到了
因为一些显示方案结构方案的趋同
导致
可能在产品的设计和功能定义上面
也是有比较大的相似性
嗯这么多眼镜
你觉得你看好哪个方向
你刚刚提到了
你其实是把Meta Rayban
你没有把它定位成AI眼镜啊
你把它定位成一个摄影赛道的
就是它主打的功能其实还是拍照
或者拍视频
另外你的一个定位是AR眼镜
你怎么去看
这些眼镜的哪个路径是对的
它能成就是你怎么去评判
我觉得今天的智能眼镜
AI可能都是辅助功能
可能从今天的硬件成熟度
和产品成熟度来讲的话
无论是摄影还是这个观影
可能是用户今天长时间使用
这样的产品
和长时间交互这样产品的核心痛点
所以呢
从今天的产品成熟度来讲的话
把这些核心的feature做好
可能是用户持续购买
和使用这样产品的原因
我觉得可能今天还不太清晰的是
因为很多产品的AI能力
会依附于一个公开的
或者是合作的大模型的能力
那怎么把真正的AI能力
多模态或者说大于模型能力
跟产品进行很好的结合
我觉得还没有看到特别清晰的方案
我看到蛮多的尝试
但是很难说今天作为一个眼镜品牌
谁会在这个方向里面
获得压倒性的优势
然后对于AR的眼镜来看的话
可以明显看到今年大家显示的效果
不管是亮度,FOV和重量
这几个关键的指标
我觉都有不小的提升
但是也看到像这些能力上面
其实对于整个供应链的依赖
还是蛮强的
所以对于独立的品牌公司
怎么在这里面获得压倒性的产品优势
我觉得还不是一个很清晰的一个问题
嗯所以作为投资人
你会投智能眼镜这个赛道吗
目前我还没有在这个领域面
进行直接的投资
如果我要投资的话
可能会关注上游核心供应链
一些创新型的方向和技术
如果这里面
能形成比较高的集中度的话
你觉得可能存在的技术壁垒是什么
就是上游供应链
它怎么样
才能成为一个非常显著的优势
比如我举个例子电池啊
这个问题挺难回答的
我自己觉得没有看到特别明显的优势
不管是显示的方案还是光学的结构
你觉得Orion算是
一个明显的优势吗
就是Meta
今年他们connect大会
发布的那一款AR眼镜
我觉得他们在显示跟光学上的突破
还是蛮大的
我觉得Meta现在做AR眼镜
包括Apple做AR眼镜
可能今天对于两个巨头公司来说
更关键的是突破性能的上限
他们也是比较愿意有这个预算
去拉动国内的这些供应链厂商
跟他们配合
但是这些结构
或者说这些方案很多并不是独家的
一旦就供应链的能力上来了
其实是可能赋能非常多的第三方公司
品牌的这是为什么
现在市场一下子出现这么多Meta Rayban的copycat
因为它的一些方案和设计
其实一旦Meta成型过后
其实别的公司follow一个方案
是非常快的
我觉今天核心问题
从VR眼镜的角度来讲的话
还没有一个特别solid的
非常刚需的user case
让这些产品有比较大的出货量
我觉得在VR时代
Oculus VR在游戏
在单人娱乐这个场景是有PMF的
所以它有一定的出货量
但我觉得在AR眼镜今天
不管是Vision Pro还是Oculus的尝试
Meta的尝试
我觉得还没有达到
消费者一定要购买的这样一个临界点
Meta Rayban是一个好的example
就是在两三百美元的价格
作为一个摄影眼镜
带有一定的AI交互和语音能力
它可以达到部分用户长期佩戴
长期使用的临界点
但我觉得今天的AR眼镜还没有到这一点
然后当这一点实现的时候
一个创业公司
怎么持续获得它的领先优势
我觉得是一个蛮大的question mark嗯
对我觉得你说的这点非常有道理
就是之前
其实我们有做过
跟Meta Rayban相关的播客
他们的产品经理就觉得
首先Meta Rayban
我们把它定位成一款AI的智能眼镜
不如说把它定位成一款时尚单品
就是首先它是一款需要你佩戴
非常舒服的眼镜
就这个里面挑战就很多
比如说欧洲人亚洲人
他的这个脸型是不一样的
眼的间距
包括你鼻梁的高窄都是不一样的
就是你怎么样把它设计的舒适
这里面就有门槛
同时它的外观戴上去是不是时尚
你的SKU品类的分类
包括Rayban在过去的销售体系里面
建立的整个的销售的网络
所有的这一切都是非常重要的
所以其实我是看到你说智能这一块
包括造这些眼镜的这一块供应链
它的壁垒是很容易打通的
但是我看到的反而是在传统眼镜
因为我们说智能眼镜
它首先是一款眼镜
大家做好一款眼镜这个事情
其实本身就是有壁垒的
因为你做一个ToB的解决方案
跟一个消费者真正愿意掏钱出来买了
还觉得值
还会推荐给身边的人的
这样的一个产品逻辑是完全不一样的
对所以你问我
有没有智能眼镜或者AI眼镜
从一个创业或者投资的角度值得关注
或者是特别看好的
我觉这就是一个很难回答的问题
因为有可能这个方向的特点
和这种产品的特点
它对于创业公司来说
本身就没有那么合适
或者说
创业公司作为一个单点的产品创新
或者一两个核心卖点的产品创新
对于支撑整个商业上的成功是不够的
无论是从用户价值的角度
还是从商业壁垒的角度
可能都不够
如果
它不是一个特别好的创业公司的机会
那大概率
也不是一个好的风险投资的机会
嗯
理解
然后它可能更多的是大公司的机会
对我一直有个观点
如果智能眼镜
或者其他的穿戴设备
跟智能手机的距离过近
或者说它的功能和价值的实现
依附于智能手机本身
那它大概率的宿命就是
成为智能手机的一个附件
而当它
成为一个智能手机的附件的时候
绝大部分市场份额
会被智能手机厂商给获得
那这里面最好的例子就是真无线耳机
TWS耳机这里面以苹果的Airpods为代表
加上三星
华米OV等中国的智能手机厂商
这6家品牌
应该是占据了真无线耳机
绝大部分的市场份额
其实对于独立的真无线耳机品牌
甚至是一些老牌的音频厂商
像索尼 BOSE
森海塞尔这些传统耳机厂商的市场
都会急剧的因为手机厂商的存在
而得到挤压
所以智能眼镜很大的一个可能性
或者很大的一个结局是
以华为
小米三星为代表的这种手机厂商
推出这种高度集成高度一体化的产品
而侵蚀今天这些独立厂商的市场
份额所以从这个角度来讲
我对在这个领域的直接投资
会有更多的question mark对
我觉得是非常有价值的思考
而且从这个耳机的角度来说
我就是你嘴里
非常典型的那一部分耳机用户
就比如说以前可能用森海塞尔的耳机
然后就直接选择Airpods了
典型的消费用户就在不停的流失
当年我在做投资之前啊
14-16年的时候
就是在Google Glass的团队里面做glass AR眼镜
我们当时意识到
AR眼镜对于手机的依赖
其实是一个非常束缚性的条件
所以在那个时候
我们就希望在AR眼镜上面
引入Wifi的能力
这样它可以不通过手机
直接跟网络建立联系
那么受限于当时的这个无线技术
跟电池技术
我们没有办法在眼睛上面装上蜂窝网
让它实现不依靠局域网上网的能力
那我认为今天可能对于智能眼镜来说
这也是一个同样的问题
如果智能眼镜的连接性和AI的能力
都要通过智能手机才能实现的话
因为我们在眼睛上面没有太多的算力
也没有太多的电池能力
那么它必然会变成
智能手机的一个附属产品
如果是这样的话
它独立做成一个新的计算平台
的可能性
就很低了
嗯我理解你说的
其实上一次
我们在跟Meta的产品经理聊的时候
她提到了
有一些部分
我没有在播客里面放出来啊
就比如说她其实提到了
他们在做这个产品设计的定义环节
有很大的一个
难点就是说眼镜里的东西
你要以什么样的方式传到手机里
就是你整个的交互怎么设置
怎么样快
这里面其实是有还蛮深
跟蛮大的一套东西的
对我用过Meta Rayban的产品
我认为这里面的体验和流程
还不是特别的丝滑
是的对
他们还在探索
对理想情况
我希望整个过程是透明的
就是当我在眼镜上拍摄一个东西
或者看到一个东西
它可以非常自然的
非常无缝的同步到
无论是手机上还是云上
然后
我可以方便进行下一步的分享和操作
我觉得今天哪怕像这样一个功能
也没有实现特别顺畅的流程
其实我看到过一些创新型的AI产品
在试图解决这方面的问题
或者说团队在努力思考
找到这方面的一些解
嗯对
你刚刚提到你14年到16年是在Google Glass
对吗
Google他们最近也在准备
他们所有的这个AR Glass
他们其实跟XREAL就是有合作
2024年12月份宣布的
它也会打造一个整个的智能眼镜平台
但是具体它的产品方向往哪个方向走
我觉得可能也是
他们明年会陆续会有一些动作出来
有可能我觉得站在谷歌的角度
这肯定是一个不能失去的市场
谷歌在可穿戴设备上面就有一整套
比如说智能手表Android Wear的生态
它赋能了很多智能手表的公司
推出兼容安卓系统的智能手表
我认为同样的事情
Google想在AR眼镜
或者说智能眼镜上面实现
只是之前硬件产品的
成熟度不够高
导致在这个品类里面
还没有形成一些比较大量
和广泛普及的硬件产品
我认对于谷歌的策略来说
只有当这个品类的硬件的销量
和产品的丰富度达到一定程度的时候
谷歌在这里面
做一个软件平台型的生态
才有意义
或者说
当这些智能眼镜需要有更强的AI能力
需要跟智能手机
跟安卓系统
有更深入的绑定跟结合的时候
那Google的优势在模型端在云端
在操作系统端的优势才能够得到发挥
所以我认为
谷歌会一直关注
和等待这个时机的出现
但是谷歌大概率不会自己跳下来
做太多或者是太复杂的眼镜产品
为什么这个就是我很好奇的
他们到底是开放一个生态
还是自己做硬件
他们是怎么想的
因为其实谷歌在硬件方向是有积累的 -
E178_智能眼镜大战CES_靠AI不如产品硬(1)
AI native的硬件对吧
就是没有AI就没有这个产品
有一个好的例子是那个PLAUD AI录音笔
你有买那个产品对吧
我有买这个产品
它们的产品形态做的很好
就是它可以直接贴在手机的背面
它比较省空间
就跟我贴一张信用卡一样
然后它可以录电话
它有AI总结
我觉得有总结和没有总结
对于这个产品
是完全不一样的产品定义
但是我买完以后
我又用回了我10年前买的一支录音笔
你知道原因是什么吗
是收音的效果原因吗
不是是因为我每次用它都没电了
哦哈哈哈
欢迎收听硅谷101
我是泓君
今天呢我们来聊一聊过去两周
可以说是非常热的一个话题啊
就是CES
我们也请到了大家的老朋友陈哲
来跟大家一起聊
哈喽陈哲你好
嘿大家好
我是陈哲Peter
Peter上一次来我们这儿聊天还是在五源
然后这次我看你的title变成了Alphaist Partners的创始人
所以也是自己出来做了自己的基金
是的我在去年底的时候
成立了一家新的早期投资机构
叫做Alphaist Partners
关注海外
全球华人的AI和机械领域的创业
也是刚刚开始独立运营
嗯
我知道其实你一直在投智能硬件方向
非常的有自己的心得跟方法论
我觉得CES呢
它又是一个
相当于是
汇聚了整个智能硬件的一个场地
同时因为今年有AI的元素
所以今年的很多的智能硬件啊
他们又在跟AI扯上
关系所以我觉得
这次你来跟我们聊这个CES的话题
还是非常非常切合的
可不可以跟大家分享一下
这是你第几次参加CES
今年是我第二次参加CES
24年1月份的时候第一次来参加了CES
觉得还是有蛮多有意思的东西跟感受
所以今年也来了第二趟
所以你觉得
今年有哪些你觉得特别好玩的产品吗
这件事也是很有意思的
一个展台是深圳松山湖XBotPark
就是李泽湘老师的
松山湖的机器人基地
他们把他们非常多的被投企业
早期的创业公司一起来参展
这是今年应该是第一次大规模的
集体的参展
我觉得还是一个非常好的信号
也能看到中国像深圳
因为产业链供应链的成熟
新一代的年轻的这种创业者
在很多产品上面
就有层出不穷的创意和想法
有些亮点吧
比如说有一款很成功的产品
这次也来参展的是LiberLive
是那个无弦吉他
我也买过
那个产品
我觉得是一个非常好的消费硬件产品
但是你说它背后有什么非常先进的AI
或者非常先进的技术
可能没有
但是
它的确很好的解决了一些用户痛点
而且基本上是single handed的
开创的一个品类
这样的产品
这样的story其实是CES的亮点
但是我觉得这个感觉
可能不是一个基础概念可以描述的
对我们前线的记者也有提到
非常多好玩的产品
让我觉得也是非常有价值的
就比如说一个红酒的醒酒器
比如说
你想让一个红酒醒3个小时到4个小时
他就可以均匀的
就是你用那个醒酒器
醒出你想要的那个时间的红酒
然后他的口味是跟你的红酒
在一个比如说敞开的
跟空气接触的醒酒器里面
醒出的酒的味道是一样的
那从这个角度上来说
我觉得这款产品就还挺吸引我的
但是你说
它真的是跟AI特别相关的一些创新吗
可能也未必
对
很多消费硬件是有一定的技术变量
trigger然后由消费者的这个需求驱动
然后在具体的一些场景跟功能上面
实现的价值的替换
他不一定这个驱动力一定是AI
当然有可能结合上AI过后
他会创造一些新的场景跟需求核心
他解决的关键的痛点可能是更关键的
比如说像一些AI native的硬件对吧
就是没有AI就没有这个产品
有一个好的例子是那个PLAUD AI录音笔
你有买那个产品对吧
我有买这个产品
他们的产品形态做的很好
就是它可以直接贴在手机的背面
他比较省空间
就跟我贴一张信用卡一样
然后他可以录电话
是的我觉这个产品从去年来看
其实是非常成功的
一个小的中国创业公司
能够做到的成绩是非常成功的
他能够卖的原因
是因为他有一个很好的工业设计
一个很巧妙的使用方式
可以贴在这个iPhone后面
可以实现iPhone的录音
而且售价也不是很贵
100多美元
是一个可以通过短视频直销TikTok直销
就是有比较直接的用户打动力说服力
可以销售产品
但是这个产品为什么今天能够出现
我觉得更重要的原因
是因为随着大语言模型的成熟
ChatGPT能力的成熟
其实这样一个录音产品
它打破了传统录音笔
只能录音和transcribe的这个价值
它非常重要的一个价值是
通过连接OpenAI的API
它可以实现整个录音的summary
对它有AI总结
我觉得有总结和没有总结
对于这个产品是完全不一样的
产品定义就是在大模型出来之前
没有总结能力
那它就是一个普通的录音笔
它可能有AI Summary的能力
它可以做transcribe
但是这样的录音笔
在之前其实一直很成熟的
每年可能有两三千万台的销量
但是很多人录了一两个小时的电话
他不会去看的
因为他review的时间是非常长的
但是有了整理过后
它的用户价值就得到极大放大
所以我觉得像这样的产品
实实际上是真正的
没有AI就不成立的产品
或者说没有AI
就做不到今天这个用户体验的产品
但这样的产品
其实我觉得在整个CES
我们也在密切的关注
就是有没有更多的这样的品类
因为AI去赋能的
你说到这个点特别有意思
因为我在做播客以前其实是记者们
然后我其实是录音笔的深度使用者
是市场上所有的总结类工具
速记类工具
包括语音转文字的这种
字幕类工具的深度使用者
坦白说刚刚那些功
能能打动我
所以这是为什么我买了那支录音笔
但是我买完以后
我又用回了我10年前买的一支录音笔
你知道原因是什么吗
是收音的效果原因吗
不是是因为我每次用它
它都没电了
哦哈哈哈
就是关键时刻你拿起要录音
发现嗯
没电那还不如我以前拿的
一个没有任何AI工具的产品
它的那个电池
我带着它
我可能一两个月
三四个月都不用换电池
我只用把它放在包里就行了啊
嗯你这是一个很好的洞察
就是电量对于这种产品来说
是非常关键的
就挺有意思的
所以我就觉得你说硬件消费
它真的是一个
你要非常细微的去洞察每一个消费者
它细微体验的不同
对所以它首先是个消费品
然后才是一个智能设备
嗯对
在你看到了CES
它一个场内
同时汇聚了这么多公司的时候
你有从你看到的产品中
获得什么启发吗
我觉得有两点是这次CES下来
会让我持续思考的问题
一个是AI变成了所有智能硬件
智能机型产品的共有的主题
如何利用好AI的变量
如何定义好AI的硬件产品
我认为是一个蛮大的问题
第二个感受
可以明显的看到这几年CES的活动上
中国品牌和中国公司的优势
在快速的放大
中国公司在很多品类
在很多产品上形成了压倒性的产品力
品牌的曝光度
以及产品的打磨程度成熟度
这一点可能相比几年前CES
由海外的创新
产品主导的趋势
我认为发生了蛮大的变化
越来越多的中国公司中国品牌
在CES上面起到了引领创新
高端产品的这样一个趋势
你觉得有哪些中国公司
在引领产品创新啊
能不能举几个例子
我举一个比较关注也比较熟悉的品类
像扫地机器人
中国现在已经有四五家公司
无论从产品力从品牌从销售规模来讲
不亚于海外的竞争对手
像iRobot这样的本土品牌
背后可以看到的是
在一个比较主流比较成熟的市场里面
其实中国公司的创新和迭代
是非常迅速的
比如今年
比较典型的是石头科技和追觅科技
两家公司
分别推出了
带有手臂操作能力的扫地机器人
虽然看得出两个产品还在比较早期
比较雏形的阶段
但是在现在这个产品形态上
做这样的结构和功能的创新
其实中国公司在产品的研发的能力
创新能力上
已经领先了他国外的竞争对手
蛮大的一个身位
嗯
你举的这个例子其实特别有趣
我今年看见CES它的创新产品的时候
其中有一个画面
就是说CES有一些扫地机器人
就手臂可以在地上帮你捡
一些你落在地上的
比如说袜子呀
一些零零散散的小东西
剪完以后呢
就把它放到一个规定的框里面
但是其实我们内部啊
我们就以消费者的角度
我们是在吐槽这个产品的
因为我们觉得从消费者的角度来说
这个功能比较多余
确实有的时候大家会在地上散落
一些东西
但是如果说地上有那么大一个东西
可能我们就顺手捡起来了
我不知道从消费者端
你会怎么看这个问题
我觉得扫地机器人首先解决的问题
还是地面清洁的需求
其实从过去十年
中国公司的品牌的崛起
产品的崛起
其实是在这个核心需求上面
不断进行的产品跟技术的创新
比如24年比较显著的一个突破
很多扫地机公司在边缘清洁方面
推出了可以伸缩的清洁的手臂
可以把清扫的边缘进行更好的覆盖
同时呢在行进的动力轮上
也增加了类似轮足的机械结构
让扫地机可以跨越四五厘米的门槛
我觉这两点
其实对于地面清洁的核心诉求来讲
都是有明显的提升
我觉得今天石头跟追觅推出两个产品
其实是一个概念性的尝试
就是在地面清洁如果出现一些不规整
或者一些明显的障碍物的时候
能不能进行预先的或者是事后的整理
让整个地面清洁的覆盖率和效率
进一步提升
当然今天
对于扫地机器人的结构和形态来讲
要增加手臂
我觉得从基础上难度挑战还是蛮大的
所以今天可能看到的这个雏形
梨真正能够发挥很好的功效
我感觉可能还需要两三代的产品迭代
对我非常理解你说的
比如说在地面清除脏物
这确实是一个产品需求
但其实我会觉得作为一个纯消费者
我更关注的是
比如说这个扫地机器人
他自主上下水的能力
因为这个是硬需求嘛
你又可以扫地又可以拖地
另外还有一种就是
比如说我们家的扫地机器人
遇到的最大的问题
就是他其实扫完一个房间
他的电量就不够了
如果这个时候他还要去地面捡袜子
我看了那整个过程啊
他是非常非常慢的
就是我能想象他的电量会耗得更快
他其实是你的电池
没有办法支撑你去扫脱整个房子
这是类似于是这样的一些卡点
这是更加消费者痛点的一些东西
电池的增加
可能在新的型号里面
是个相对来说比较容易解决的问题
是一个线性可以解决的问题
但是他对于地面更多障碍物的处理
我觉得还是一个蛮开放的问题
这是更加研究性的对不对
对因为今天像两个公司推出的手臂
他们的负载大概是300-400克左右
意味着可能除了袜子
连一个比较重的拖鞋都是比较困难的
而且我们也知道
现在大家讨论具身智能
讨论通用机器人也非常火热
其实作为一个机械手臂
在一个地面能够非常可靠的
非常快速的抓取一个物体
得到合理的放置
就这样一个pick and place的一个问题
其实对于很多机器人产品来说
都是一个非常困难的事情
在消费产品里面
应该历史上
还没有把这个功能真正产品化的公司
我们看到很多在工业场景
在研究场景里面出现的尝试
或者是在一些重复性的工作场景里面
工业场景里面出现的产品
但是在消费级产品里面
一个大批量低成本的方式生产
带有手臂操作能力的机器人
可能这还是第一次
我可不可以理解成
他们其实在训练机器人
用手臂抓取地上袜子
这种能力
其实这个某种程度上
也是具身智能的一种嘛
其实这一套技术
它是可以扩展成to b的解决方案
它甚至可以扩展成
工业流水线上的一个产业链
的一个软件解决方案
大家其实还是说
我哪怕卖的是一个消费级的硬件产品
但是
我还是想在研发上走到最前面去的
因为它可以探索更多的可能性
可能在资本市场上的估值也会更好
我觉得固执可能是一个侧面的好处
但是主要来讲还是
我们今天讨论具身智能
讨论通用机器人
讨论家庭服务机器人
其实我们是很希望
除了平面的清洁能力之外
在家庭我们还能够引入相对低成本
且有价值的用户场景
我觉今天从消费者的视角来讲
扫地机器人的用户价值
和用户成本
是有一个清晰的定义关系的
大概在几百到1,000美元左右
这是消费者愿意接受的价格
那么未来
会不会有
脱离扫地机器人形态的
家庭服务机器人的出现
因为今天有非常多的公司
研究院和实验室在做居身智能
或者说手臂操作能力方面的研究
但是大量的研究和尝试
还是局限在工业或者商业场景落地
因为从成本可靠性安全性的角度
这样的新的技术
可能一开始会落在一些工业型的场景
会比较合理
但是如果我们要引入家庭场景
会一个什么形
态什么样的价格
我觉得这是一个非常值得关注的问题
嗯对
我觉得这个讨论的出发点特别好
那作为投资人来看
你会怎么去看他这类需求的研发
这是你觉得
这个会是他的一个核心竞争力吗
这是你们评估的角度是什么
我觉得创新型的用户功能的核心目的
要么是为了解决一些持续的用户痛点
扩大这个产品的接纳度
也会带来产品的渗透率的增加
或者是创造某一种差异化的竞争优势
让公司在市场的实战率得到提升
我觉得以扫地机器人
增加手臂这个功能来思考的话
今天的扫地机器人
都不具有除了地面清洁之外
对于外部环境
进行一定的干预和整理的能力
所以对于这些公司
在今天的阶段引入这样的功能
我认为更多的是一个差异化的诉求
那今天我们以扫地机器人为例
可能在欧美国家
大概有百分之十几的渗透率
还没有到一些常见家电
可能百分之八九十的渗透率的普及度
那么如何增加产品的渗透率
我觉得可能就需要一些创新型的功能
和创新型的场景的成熟跟打磨
这个可能是一个比较长的一个过程
就像过去十年
我们逐渐看到扫地机器人在导航
在清洁、在跃障、避障能力的迭代
带来的渗透率的逐渐增加
嗯简单来说就是需要产品更好用
对不对
对
嗯然后你刚刚提到
欧美只有百分之十几的渗透率
为什么这么低
是因为大家对出海的决心的问题还是
说欧美的家庭更多的是地毯
而不是地板
它的产品功能的需求点是不一样的
这个可能是一个比较大的问题
因为扫地机器人本身
是在欧美国家发明的
因为吸尘器在欧美国家
生存率是很高的
所以
最开始iRobot的发明扫地机器人的时候
核心的痛点其实就是解决吸尘的问题