博客

  • E180_量子计算的Transformer时刻与科技巨头的路径之争(1)

    现在处在敏感阶段的三个行业
    先进半导体AI量子
    我们可以总体来说
    先进半导体是一个非常传奇的过去
    然后AI是个非常蓬勃的当下
    量子计算是不可避免的未来
    所以在一个加息周期里面的话呢
    政府会对这个不可避免的未来
    更感兴趣
    但随着减息周期的开始
    我觉得像VC对整个行业更加关注
    特别是Willow的出现
    我觉得会ramp up
    哈喽大家好
    欢迎收听硅谷101
    我是泓君
    那大家标题已经看出来了
    这又是一集非常硬核的话题
    量子计算
    2024年的12月
    谷歌宣布
    基于Willow的计算机芯片的
    量子计算机
    只需要不到5分钟的时间
    就可以完成一项标准的数学计算
    那我们把这项计算交给传统的计算机
    需要多久呢
    10-25次方年
    这是什么意思
    就是说这个时间
    已经超过了我们知道的宇宙年龄
    我相信听到这里大家就有疑问了
    谷歌的量子计算机
    如果已经能执行这么厉害的任务了
    那量子计算是不是实现了呢
    并不是因为谷歌的机器啊
    执行的数学计算
    是一项
    专门用于衡量量子计算进展的测试
    而不是一个有用的
    可以在医学或者人工智能领域进行的
    有目的性的一些运算
    过去30年
    困扰这个领域最顶级的学者们的问题呢
    就是量子计算机他会犯太多的错误
    谷歌Willow芯片的主要贡献呢
    就是它可以
    在扩展至更多的量子比特的时候
    指数级的减少错误
    那基于这一点
    它其实是解决了一个
    困扰科学家们30年的难题
    所以业内人又将Google的Willow芯片
    称作是量子计算界的Transformer moment
    这样一来
    量子计算机
    距离执行人们觉得有用的任务
    我们离完全纠错的量子计算机
    就又近了一步
    我们离有用的量子计算还有多远
    英伟达的CEO黄仁勋
    在CES期间也被问到了这个问题
    and so if you kind of said 15 years
    for for very useful quantum computers
    that would that would probably be on the early side if you said
    you know 30 is probably on the late side
    but if you picked 20
    i think i think a whole bunch of us would
    那我们这期节目的录制呢
    是在1月份的CES之后
    刚好是黄仁勋回答了这个问题
    所以我们会讨论他的回答
    以及量子计算还有多久实现
    同时呢我们也会提到啊
    刚刚对节目开头
    谷歌Willow芯片的一些解析
    那第三部分呢
    我们也回顾了过去几十年硅谷巨头
    是如何去布局量子计算
    以及他们之间的线路之争
    这部分听上去会有一点点难啊
    大家可以一边看shownotes
    或者使用AI工具的辅助
    去理解这期节目
    那最后一部分呢
    我们会聊一聊量子计算的应用
    以及它与加密货币 银行
    还有运营商之间的密码学博弈
    下面就请收听我们今天的节目
    那今天跟我在一起的两位嘉宾
    一位是Anyon technology的创始人
    也是加州理工大学的博士与伯克利大学的博士后
    Roger Luo
    hello
    Roger你好
    你好啊你好啊
    很高兴能参与这个节目
    然后跟大家聊一聊
    关于最近量子计算的一些前线信息吧
    对欢迎欢迎
    那另一位嘉宾呢
    也是Roger的同学
    他是加州理工大学的博士与博士后
    同时呢也是Anyon的CTO
    Jared Ren
    哈喽Jared你好
    我们是加州理工博士期间的同学
    嗯欢迎Jared
    那在开始的时候
    大家要不要介绍一下自己
    包括你们跟这个量子计算的关系
    好啊好啊
    在过去十年多的时间
    我们基本上
    一直在做量子芯片相关的事情
    我和Jared是2014年来到加州理工
    做博士的
    我们的加州理工导师是Oskar Painter
    也就是现在
    AWS的量子硬件部门的负责人
    实际上我们在量子计算这个赛道上面
    从14年就开始有10年的共同从业经验呢
    也是基本上在19年我博士毕业
    再去博士后之后
    然后我觉得时机比较成熟了
    就跟我之前的同组同学
    就Jared一起创立了这个公司
    目标就是结合我们在伯克利
    和加州理工的相关的前沿技术
    因为我在伯克利的博士后组
    也是整个量子计算芯片的先驱的组
    就是Professor Irfan Siddiqi
    他基本上在超导量子电路这个赛道上
    算是20多年的历史了
    也是最早的一批教授
    基本上跟John Martinis是同一代
    所以说实际上我们当时创立这个公司
    初衷就是一是看到了很多
    像很多公司
    基本上所有的云计算公司都
    在做量子计算
    特别是AWS
    把我们之前在CalTech的组
    给整体的拿过去
    创建了它的量子计算硬件部门之后
    我们觉得这时机很成熟了
    那我们既然有技术有时机
    我们就why not
    对吧去做一个公司
    将我们的技术变成商业化产品
    然后服务于下个十年的计算行业
    这个是初中吧
    嗯那Jared你要不要介绍一下
    好啊
    由于我跟Roger的轨迹比较相似吧
    所以Roger基本上也帮我介绍过一些了
    在我们2019年2022年博士毕业期间
    Roger去了伯克利做博士后
    我继续留在了加州理工
    继续跟Professor Oskar Painter继续做博士后
    这个期间
    也是亚马逊开始开展量子计算
    正在把我们的博士生导师
    整个的研究组
    挖到亚马逊AWS量子计算部门
    这么一个过程
    所以说
    我也参与了一些初期的交接的工作
    和准备工作
    当然像Roger刚才说的
    我们最终觉得是一个非常好的时机
    来成立自己的公司
    按照我们自己的理念
    可以走出跟大公司不一样的发展路线
    所以说
    我们就一起创立了现在这Anyon Technology
    这个公司
    嗯那我觉得在节目的最开始
    可能还是一个非常通俗的问题啊
    能不能用尽可能通俗的语言
    跟我们的听众解释一下
    什么是量子计算
    它是用来做什么的
    好我用我一直以来比较通用的一套
    浅显易懂的解释
    介绍一下量子计算吧
    理解量子计算
    可以跟经典计算机做一个类比
    那我们现在市面上几乎所有的计算机啊无论是CPU GPU或者是手机
    或者是很简单的计算器
    都可以理解为是经典计算机
    对啊那我们想理解量子计算机的话
    用经典计算机来做类比
    是比较容易理解的
    我们其实可以理解为
    每一个经典计算机
    都是一长串的字符串
    由0或者一组成的
    就是我们所说的bits
    bits只能是0或者是1的状态
    那所有的计算机
    无论是它有多么复杂
    还有多么简单
    无非是一个比较长的字符串
    或者是一个比较短的字符串
    那类比于量子计算器的话
    其实它也是一长串的字符串
    只不过它的组成部分
    我们叫做qubit
    量子比特
    那量子比特跟比特的区别是什么呢
    就是说量子比特
    它不仅仅只能存在于0或者1的状态
    而是它有一个叠加态
    它可以同时存在于0和1之中的状态
    那量子计算机呢
    或者说量子比特还有另外一个特性
    那就是量子的另外一个原理
    就是说它的纠缠态
    它不仅仅是说每一个量子比特
    不仅仅是它自己单独的量子比特
    而是不同的量子比特之间
    可以纠缠在一起
    同时发生改变
    那这两个一起发生作用呢
    就产生了跟经典计算机显著的不同
    经典计算机
    比如说如果是一个
    只有三位数构成的经典计算机
    那它的所能存在的状态就是000001
    一直到111
    一共八位数
    那如果想要进行运算的话
    他只能一个一个的去改变每一个位数
    如果他要去到这8个不同的状态的话他要进行8次运算
    但量子比特不同
    量子计算机不同
    他由于
    如果说我们有一个
    三个量子比特构成的量子计算机的话
    它其实是由于叠加原理和纠缠原理
    它可以同时存在在这8个状态里面
    然后同时对这8个状态进行计算
    那如果只有三位数的话
    它们的差距可能不这么明显
    一共要进行8次运算
    一个进行一次运算就可以完成
    但是如果比特的数量继续加倍的话
    那量子计算机
    它其实是一个指数增长的过程
    如果有4位的话
    经典计算机就要进行16次计算
    才能穷尽16个状态
    但是量子计算机还是只需要一次
    就可以穷尽所有的16次状态
    这就是所谓的量子计算机
    相对于经典计算机的计算来说的话
    指数的加速过程
    所以我可不可以理解成
    量子计算机
    它其实是非常适合去解决非常复杂
    高难度的计算的
    越难的计算它越有优势
    而我们可以理解为
    它的核心优势在于
    能够在某些特定的问题上
    实现指数级的加速
    量子计算机
    它不是经典计算机的代替品
    就像GPU
    不能像是完全是CPU的代替品一样
    他们两个是一个共同存在
    相互协同的作用
    量子计算机特别擅长某些特定问题上
    实现指数级的加速
    像是矩阵运算
    因数分解
    量子化学模拟和组合优化等领域
    它会在这些高复杂度计算的任务中
    发挥非常重要的作用
    哪些领域
    会运用到这些高复杂度的计算啊
    就比如说
    如果你们能想象
    未来量子计算它会去应用的话
    相比于传统计算机
    它一个非常有优势的场景
    跟它最有优势解决的问题是什么
    能不能举一个具体的场景的例子
    它有几种特殊的算法
    有的特殊算法
    对矩阵运算
    有特别好的指数级的加速效果
    有的运算对因数分解
    有特别好的加速效果
    他本身是量子的
    然后这个世界本身是量子的
    用经典计算器对量子世界进行模拟
    本身是非常困难的
    也就是说我们的一些化学运算啊
    它本身是量子的
    所以说
    用量子计算器进行这方面的运算
    将会更加的容易
    嗯那我刚才提到的3个例子所对应的
    其实就非常的明显
    其实矩阵运算
    我们现在所有的人工智能机器学习
    本质上就是矩阵运算
    那因数分解的话
    很能想到的就是Shor算法
    所对应的安全问题
    加密问题
    现在大部分的加密手段
    都是通过类似的情况进行加密的
    那量子计算对于破解这样的加密
    就非常有优势
    而量子化学模拟
    那很明显就可以想到油气啊化工啊
    药物的研发等等
    是一个非常直接的作用
    还有一个领域
    就是
    量子计算机对组合优化的求解过程
    是非常的迅速
    也有指数级的加速作用
    所以说对于一些物流啊
    之类的需要优化的内容
    这些领域也是非常有帮助的
    嗯理解理解
    你刚刚提到了好几个点嘛
    比如说在矩阵运算方面
    它对人工智能的加速表现在哪里了
    比如说有了这个量子计算机
    那大家在去训练这种大模型的时候
    它会有特别的优势
    还是说它只能在一个极小的领域里面
    针对某一个特定问题
    它可能会有一些特定的解法
    我理解的是
    人工智能无论的模型是什么
    它的本质是矩阵运算
    其实回到了根本的问题
    就是GPU为什么在人工智能中作用这么大
    它比CPU
    为什么做人工智能的模型的话
    速度快这么多
    本质上就是
    GPU对矩阵运算的速度会比CPU快很多
    CPU擅长比较复杂的问题的
    比较少线程的运算
    而矩阵的运算
    本质上不需要特别复杂的过程
    比较重复的过程
    而且需要特别多的核心同步运算
    那这就是GPU的作用
    也就是说
    人工智能
    为什么在GPU上比CPU上优势这么大
    就是因为
    GPU对矩阵运算会比CPU快很多
    像量子计算机中
    用到了HHL算法之类的算法
    对矩阵的运算也能加速的话
    本质上就是对人工智能整个大模型
    开发的类似的
    实现了从CPU到GPU的
    这样一种跨越式的加速发展
    对因为实际上加入想表达一点
    就是
    实际上量子计算在这个具体的问题上
    通过加速矩阵求例算法这相关的算法
    我们实际上可以总体的加速
    整个人工智能
    学习啊的和inference的pipeline
    也就意味着
    比如说
    你的人工智能模型有100billion的参数
    你用100billion参数
    你用GPU去跑的话
    对应的大概是一个比如说100billion乘
    100billion的算法复杂度
    就要跑这么多步骤去算
    它对于量计算机来说的话呢
    就是一个求指数底数的这个log
    求log的一个方式就是100Billion的话
    大概相当于log 100Billion的一个算复杂度
    相对来说
    你在处理巨大的模型的时候的话呢
    它的整个操纵的数量会指数级下降
    相当于
    你可以以更少的能量和资源付出
    去计算一个矩形模型
    嗯对
    刚刚我们提到了
    量子计算应用的几个方面
    我觉得在之后啊
    我们还可以详细的去探讨它的商业化
    跟它在各个行业里面是怎么应用的
    但是呢
    在此之前我觉得就有一个问题了
    量子计算现在到底能不能实现
    比如说我们说的来去训练人工智能
    它发展到哪个阶段了
    那在问这个问题的时候呢
    其实今年英伟达的创始人Jensen Huang
    他是在今年的CES上
    其实也把这个问题提出来了嘛
    然后我记得他说的是
    如果你说
    15年内能实现非常有用的量子计算
    他觉得这个是一个非常偏早的预测
    如果说是30年实践有用的量子计算
    可能偏晚
    所以呢
    他觉得一个合理的区间是在20年
    但是呢他这个话一说啊
    有一批量子计算的股票
    大家的股价就纷纷下跌
    所以也是想听一下两位
    你们怎么去看Jensen说的量子计算
    它的实现时间
    首先
    Jensen在他们对于Nvidia的投资者会议上
    被问到后
    且正面回答这个问题本身
    其实已经把他认为的20年
    抗贩卖到了远不止20年了哈哈
    比20年还要久
    因为一旦你开始回答这个问题
    在这种会议上
    那就意味着投资者在考虑
    是不是要price in你未来10年
    量计算对你公司的股价影响呢
    因为大家都知道
    花结算股价的方式
    是price in未来10年的assumed gross和Monopoly的
    所以实际上
    这一个对他来说有点conflict interest的问题
    就如果他有任何地方表现出未来实验
    这可能会对GPU产生影响的话
    那明天Nvidia股价就要跌了
    相比让Nvidia股价要跌来说的话
    那量子以上的股价跌
    对他来说是一个非常合理的决定
    毕竟坐在哪个位置上回答他的问题吗
    嗯还有另外一个角度来讲的话呢
    我觉得Jensen是很厉害的人
    我也很尊敬他
    但是人你就要不要看他说什么
    要看他做什么
    对吧Jensen公司在量子计算里面
    算是一个非常大的一条鱼了
    他也是我们的合作伙伴
    他们也有非常主动的各种partnership
    合作
    还有
    包括我们等下参加的一些超算的会
    也是我们跟他们要一起做demo的
    所以整体上来说这个就代表一个逻辑
    从他做的角度来讲
    我们可以回顾一个历史
    CUDA Launch的时候是07年
    CUDA DNN
    就是CUDA专门为DNN的那个package
    Launch的时候是14年
    而Transformer是16年
    GPT3.5是22年
    就算你从CUDA算起15年都是一个
    从Nvidia角度来讲呢
    开始做这个方向
    到最后对方完全落地都不会超过15年
    所以第三点它用词非常精准
    它说是very useful Quantum computer
    在这个context里面
    其实也可以认为它理解为是叫Large scale fault tolerant quantum computer
    也就是量子计算的完整体
    就有点类似于AI里面我们谈论AGI
    它是一个非常长远的goal
    或者是一个非常powerful的一个dream
    一个goal它如果能被实现
    基本上
    人类文明在下一个阶段就会被激发了
    因为我们开发出无数的新材料
    和无数的远超人类强大的人工智能
    都可能出现
    所以它这个very useful的意思就是

  • E179_DeepSeek技术解析_为何引发英伟达股价下跌_(5)

    世界模型有个action
    action是什么
    action就是比如向前走
    向后走向左走
    向右走
    有一篇DeepMind非常好的文章叫做Genie 2
    它里面就是说给我任何一幅画
    我可以变成这个幅画里的主人公
    我可以向前走向后走
    然后就可以在这个世界里穿梭了
    GPT其实可以认为是一个
    没有action的一个world model
    它就做一件事
    就是给定之前你给我说的话
    我预测未来
    那么世界模型更general一点的形式
    就是给定之前发生的事情
    给定我接下来要take的一个行为
    预测未来
    世界模型
    当你的模型非常好的
    时候
    你就可以用它来做reasoning和planning
    比如举一个具体的例子
    我们最近做的一个工作
    就是实现了这样的一个事情
    就是说如果我可以创一个
    非常好的一个world model
    那么我们接下来
    可以完全的用这个world model
    来学习一个task
    几乎就是说你不需要再看现实世界了
    因为你已经创造了
    一个现实世界的一个copy了
    所以你这个时候可以在一些任务上
    你可以搭载上任何的一个
    强化学习的方法
    然后你把现实世界换掉
    你就用这个世界模型来做
    然后你就可以达到一个很高的performance
    当你的模型进化到一定程度的时候
    因为准确到一定程度
    你就具有了这样的能力
    就是说我可以在自我的空间里面
    来提高自己的一些行为
    甚至你可能不用强化学
    你直接可以用model predicted control
    你直接把它搜出来
    就直接把这一条比较好的轨迹搜出来
    就是像我刚才说的那个
    当你的基础贝斯模型
    已经好到一定程度的时候
    你生成100条
    已经能找到一些比较好的信号了
    然后你可以再对它进行强化
    以后呢
    让它在这个方面提高了很多以后
    直接出来
    但假设你的模型
    已经好到一定程度的时候
    你生成这100条里面
    必然有一条是正确的
    那你不用再学东西了吗
    你直接可以搜出来了
    所以我觉得样材所坚持的
    就是说这种世界模型
    我认为是一个非常重要的方向
    只不过这里面也有不同流派
    有人可能focus生成
    有人希望能学到更高级别的感知
    然后有些可能强调空间的intelligence
    对吧有不同的这种声音
    我其实觉得这样是一个好事情

    大家还是有很多的不同的方式跟方法
    去达到我们说AGI也好对
    嗯我我觉得还是有很丰富的想法的
    在这一点上
    嗯对对
    因为现在关于DeepSeek
    他们很多的信息都已经公开出来了
    因为他们也是一个开源模型
    就是想问一下
    你们对DeepSeek有没有什么样的问题
    就是你们对这家公司还非常好奇的
    有问题啊
    那因为他这个文章里面
    具体的数据的composition
    这个在文章里面并没有写出来
    然后以及他训练的很多的细节
    也没有写出来
    只是大概层面上
    当然我认为不应该全部都公开出来
    对吧这个不合理
    但是如果有更多的细节讲出来
    能够让大家更好的去复现
    这样工作可能是更好的

    就是你希望他的数据能写的更细啊
    对但是这也是一个趋势
    所有的这些Frontier
    research lab都有这样同样的趋势
    就是说到数据这个地方以后非常含糊
    有些事情就没有办法
    连OpenAI都不敢写
    就是所有的大模型公司问到数据
    都是他们不敢答的

    然后甚至你的连数据是如何balance的
    curation的
    这个process是具体怎么做的
    这些都是不写的
    我可以说不写它具体组成
    但是我依然可以写它具体是如何curate
    等等
    但这些细节好多的时候大家也都不写
    所以我其实
    觉得这些东西反而是最关键的
    其他那些
    你说我用search的方法来做这reasoning
    planning这其实很容易想到
    当你的模型足够好的时候
    它的bootstrap的方法也可以提高性能
    这也很容易想到对吧
    小模型无法直接Bootstrap
    用大模型直接Bootstrap出来喂给小模型
    这个也很容易想到
    所以真正不好想到的这些东西
    反而一个是数据的具体的composition
    然后还有呢
    就是说
    在这种architecture里边的一些底层的
    一创新
    我觉得觉得可能这些东西是最关键的
    嗯嗯对
    所以整体上来说
    还是想从DeepSeek上学到更多的东西
    对这样我可能没有什么问题吧
    但是我可能比较关注的就是
    DeepSeek这家公司
    它能不能持续的push the envelope
    它能不能持续的跟OpenAI去挑战它
    如果它后面能不断的给我们惊喜
    让我们看到
    大家可能最后做application都是在DeepSeek上
    那这个对整个的芯片
    infrar这块的格局
    确实是有比较大的改变
    会是什么改变
    就我刚刚说
    因为DeepSeek
    它已经绕过CUDA去适配很多东西了嘛
    所以如果他能继续站住这个位置的话
    那可能很多其他芯片都有一定的机会
    对英伟达本身的这个生态
    也会有一定的挑战啊
    溢价是肯定要打下来
    但如果下一个就比如说Llama4出来
    假如是比DeepSeek好很多的话
    那可能一切又回到Scratch board
    回到刚开始
    嗯好的
    谢谢羽北
    谢谢John
    谢谢
    当然我们今天的播客有从
    算力算法
    还有整个大模型的演化来去聊DeepSeek
    那它对数据的影响是怎么样的呢
    如果大家对听到更多的采访感兴趣
    我们也考虑会将一些精华的内容
    放在硅谷101的视频号上
    当然我相信我们的很多听众啊
    也是AI领域的专家
    如果大家对于DeepSeek有什么样的想法
    或者想了解的
    欢迎给我们写评论写留言
    那这就是我们今天的节目
    大家可以通过小宇宙苹果播客Spotify
    还有YouTube上搜索硅谷101来关注我们
    我是泓君
    感谢大家的收听
    再次祝大家新年快乐

  • E179_DeepSeek技术解析_为何引发英伟达股价下跌_(4)

    调用API完成一些基本的工作
    那更复杂一些工作呢
    它其实可以offload到语音上面
    这样的一个层次化的一个智能
    对吧但是它其实很多的这种平台上
    一个手表
    它已经能做非常复杂的这种推理了
    而且你这手机上像高通的芯片
    其实它的这种推理的能力可以达到50TOPS
    它其实是一个非常大的一个算例
    没有比A100差多少
    所以很多小模型
    他其实可以胜任
    很多大模型已经在做的事情
    然后这个对于降成本
    提高AI的触及程度是有很大的帮助的
    小模型是本地的还是联网的
    本地的所以我理解
    未来我们整个世界里面
    可能会有各种各样的小模型
    当这个小模型不够用的时候
    他再去调动这种大模型
    这样就可以极大地节省
    这一部分的推理成本
    对我觉得就是未来的AI的Intra
    应该是一个层次化的
    它最小的可以到端上面就是在传感器里边就做一些非常普通的问题
    在边上也会有更多的AI的功能
    然后到云上对吧
    端边云我认为它未来是一个整体
    之前我说过一个数字
    如果你做一个简单的计算的话
    你把全世界
    刚才我说的端上和边上的这个算力
    你乘一下
    你会发现
    是全世界HPC里边的GPU的算力的100倍
    那这个是非常可怕的一件事
    因为它的量太大了
    高性能GPU
    可能是以百万片的级别在出
    但是你像手机
    像边上的这种端上的
    它都可能是以10个billion
    就是这种100亿的这种量级
    或者手机比如说是10亿这种级别
    然后到Sensor的话
    它又会带那么一两个数量级
    当它的volume上去以后
    它的加起来的算力实际上是超大的
    芯片够用吗
    比如说高通的芯片
    它可以做很多很复杂的功能
    就是说从小语言模型嗯
    一直到visual language model啊
    到Audio的ASR什么的
    很多的功能都胜任了
    所以其实对于这些
    我管它叫做初级的AI的功能
    不管是agentic的还是perception的对吧
    就感知的很多
    我认为在这种edge platform和End point身上都是可以完成的
    最后呢
    最复杂的一部分任务会交到云上面来
    然后第二个事件是
    你会发现全世界其实99%到90%的数据
    其实也在端和边上
    但是现在大部分情况是use it or lose it
    就比如
    你不可能把camera的所有的这些video
    全都传上来
    所以如果你有AI的function在端和边上
    你可能会能够把最有用的数据传上来
    这个其实是价值是巨大的
    所以其实现在的这些数据
    都是没有被UNLOCK的
    然后在未来的话
    当你的AI的初级程度变多了以后
    你可以认为初级的AI模型
    反而是可以充当大模型的一种
    数据压缩
    这样的一个角色
    对然后
    现在大家部署的是DeepSeek的小模型吗
    还是Llama的
    其实可能都不是它一个
    整个生态有
    然后有Qwen的
    然后有Llama的
    有DeepSeek现在出来的一些模型
    也有很多自研的
    所以我觉得整个生态里面
    其实只能说是越来越多的
    这样的小模型在涌现
    而且他们的能力在快速提高
    选模型看中的关键点是什么
    首先它必须得快
    对吧得小
    这是它的效率的问题
    但是除此之外
    它必须得足够好
    因为没人会为一个小
    快但不好用的模型买单的
    所以就是说
    你一定要保证它所处理的任务呢
    它能够胜任
    这个我认为是叫做鲁棒性
    就是AI的鲁棒性
    这个很重要
    我们就说一个话筒降噪
    你放到这里了
    那它必须得能够保证我的一个音质
    它不能最后出来的很粗糙
    那我是不会用它的
    那我可能还是要用后期的处理软件
    啊我理解了
    所以其实我觉得在应用端的话
    大家看的并不是说
    最前沿的模型是什么
    而是说最适合我的模型是什么
    就是哪一个模型它能保证
    比如说我在话筒里面加一个降噪功能
    它最后出来的兼顾音质跟
    降噪它能调整到一个最优水平
    然后在这个情况下
    选成本最低的就可以了
    是的是的是的

    那最后我们再来讨论一下AGI的问题
    我看最近Anthropic的CEO跟创始人
    Dario Amodei他自己在他的文章里面
    他也是说了这个
    人工智能发展的三大动力曲线
    第一个就是Scaling Law
    然后这个我们就不解释了
    然后第二个
    大概就是说在人工智能发展的过程中
    通过比如说算法的改进
    然后芯片上的改进
    各种各样的方法
    它可以让你的训练的效率跟数量级
    再去提升一个
    比如说每年4倍或者10倍的速度
    第三个呢
    他就是说整个的训练范式
    其实也在改变
    比如说从2020年到2023年
    整个业界
    他用的方法就是预训练大模型的方式
    但是其实在2024年
    几乎所有的公司都意识到了
    大家要在预训练的这个模型上
    加入强化学习这个思维
    练的方式去训练
    但是大家在这个步骤上
    其实花的钱不够多
    就比如说以前从这个10万到100万美元
    那如果我把这些步骤
    比如说拉到1亿美元会怎么样
    通过这三个方式
    他是觉得整个人工智能的发展
    按照现在的速度算
    他会是指数级的增长
    然后他的智能也会指数级的提升
    所以他有一个结论非常震惊我
    他就说大概在2026年到2027年
    他觉得AI会在任何行业任何场景下
    比绝大部分的人会聪明
    他用的是“almost”这个词
    “almost”我觉得应该99%对
    嗯他做出这样一个预测
    就2026年 2027年这
    样一个预测呢
    我认为还是非常有勇气的
    嗯你觉得没有那么快
    就是如果你说5年以后的话
    我认为可能是更稳妥一点
    因为5年以后的事情
    谁都不知道怎么回事
    但是如果你说是明年的事
    因为现在是2025年了
    如果说你明年在各行各业
    都要超越大部分的人
    或者是我再多给一年 2027年
    我认为这是有挑战的
    嗯单个任务呢
    比如说写代码
    写代码其实是提高效率
    但是你说超越人
    我觉得不是这样的
    就是很多你会发现这些低级别的
    这个任务确实很繁琐
    它确实可以加速
    但是人工智能
    它真正用在应用里的开发还远远不够
    因为你如果这么去想一下
    这个全世界的算力
    它主要是应用在训练上
    还是应用在推理上
    以前可能主要的都是应用在训练上
    随着这种大模型的能力变强
    随着AI的开发成本下降
    所以它这个AI的应用上的
    所用到的算力其实已经提高了很多了
    对我觉得替代人可能是他
    是一个应用层面的事情
    但我觉得从他的角度来说
    因为他其实自己
    是一个大模型公司的创始人
    我想他说的应该是指
    模型能达到的这个智力水平
    对如果不解决学习的efficiency
    的这个问题的话
    我其实觉得大模型的智力水平的话
    是无法跟人真的放在一个级别上的
    OK对
    所以你觉得达到Yann说的这个efficiency
    它大概需要多久
    比如说三个数量级
    对就是我们当时讨论的时候
    这个三个数量级后
    来我们就简单
    我做做了一个这样的一个计算
    我其实觉得
    这个还有非常大的不可预测性
    因为这里面需要基础研究
    现在我们当前的人工智能
    跟人所能达到的能力
    或者自然natural intelligence的政策
    和artificial intelligence的智能
    它们之间的一个efficiency效率差距
    我认为不管从功耗
    从模型尺寸
    从学习所需要的数据
    都差至少3个数量级
    跟人相比
    对功耗的话
    你可以想
    人的这个大脑其实非常efficient
    它在运转的时候
    你在醒的时候
    它的功耗大概相当于一个20瓦
    那么同样的话
    你可以想象
    我如果要是有一个600个billion parameter
    这样的一个模型的话
    你就可以想象大概我需要多少张卡呢
    大概是需要16张卡
    这个样子
    大概对应的是一个2万瓦的一个量级
    那么哎
    你看20瓦和2万瓦差了三个数量级
    人呢假设咱们在20岁之前
    只能access不超过10个billion token
    那么Llama的这个训练的数据量
    也是15个trillion
    那么15trillion和10个billion的话
    那又是刚好是大概三个数量级
    这个样子
    第三个例子
    你说如果你看自然界的这些小动物
    你看像jumping spider
    它可以做非常复杂的三维的navigation
    这样的模型
    在我们现在自动驾驶里面
    所做的这些navigation的模型的话
    基本上是billion级别的parameter
    而你看jumping Spider
    它只有几百万个神经元
    刚好又是3个数量级
    所以我觉得
    自然的natural intelligence和Artificial intelligence
    它存在这样至少一个3个数量级的efficiency的差距
    如何unlock这个差距
    或者bridge这个gap
    我是觉得需要基础研究
    现在整个大模型的进步
    让你看到了这个希望吗
    我觉得大模型的进步
    其实并没有看到这个希望
    但是大模型之外
    像这种reasoning planning
    或者是neurosymbolic representation
    这种逻辑推理呀
    也好啊然后像这种search也好呀
    像因果呀
    causality啊也好呀
    我觉得这个似乎都在正确的路上
    而且这种data的curation
    这个data的迭代
    就是人其实是非常擅长的
    做一件事情
    是说我学一个东西
    然后我找到哪里学习最有效
    然后我focus上学这些东西
    对吧我要搭桥等等
    原则上来讲的话
    如果机器能有这样的能力自我去提升
    我认为这个就像人相似了
    但是目前呢
    很多的时候
    你的机器的提升
    是来自于人来给你准备数据
    所以就是human in the loop对吧
    然后他也给你做更好的curation
    什么时候这个过程能够基本自动化
    模型他能自己给他一个Internet
    他上去自己提升自己
    能够make every token count的话
    那我认为这样的话
    可能距离人的智能就更加接近了
    所以你是觉得整个基础研究
    已经走在了正确的路上
    类似于类人智能的这些基础研究
    基本上在全面开怀就是
    呃我觉得是
    有有很多这样的比较有意思的研究
    但是呢基础研究
    它虽然我们的发展速度一直在加快
    但是基础研究本身有一种不可预测性
    有可能
    明天有个小神童什么的
    就找出来一种就unlock的这个密码
    然后大家就happy的
    这个问题solve掉了
    它是计算机领域的研究
    还是人脑领域的研究
    我觉得它其实是在数学
    计算机和人脑
    工程几个的一个交叉的一个进展
    当然目前的话工程占主导地位
    就是在工程上面
    你可能尝试很多这样的想法
    就是更快
    主要是工程上的
    我认为在这件事情
    工程上面走的
    在最近的十年
    都走的比其他领域都要快一点
    因为主要是你可以做实验嘛
    不管你怎么想
    你最后可以有更高效的实验效率
    因为数学的话
    你要证明
    证明的话
    其实有的时候这个数据太复杂了
    你无法证明
    对吧就所以计算机或者说工程
    in general它close这个loop更方便一些
    嗯对
    John你对Dario的观点有什么想法吗
    我觉得这说的差不多吧
    然后我只要觉得他说完全能超过人
    这里头最大的一个瓶颈
    可能在于domian knowledge吧
    比如像我创业这么多年
    你要说一个机器能超过我创业的经验
    就我觉得可能比较难
    因为我创业经验只有我自己知道
    对我也没有把这些东西数字化了
    那在不同的行业里头
    大家都会有自己的经验
    在增加自己在某项工作中的一些wisdom
    那他们是不是把他们所有知道的东西
    全都数据化了呢
    而且把这些数字化的这些数据
    都给到了某一个模型
    我觉得这个可能是比较大的一个工程
    所以就基于这点
    我觉得机器超越人可能没有那么快
    我觉得应该不会是这两年的事情吧
    主要我觉得就是一个数据的一个壁垒
    所以你觉得现在数据
    会是整个大模型训练中
    遇到的一个
    达到AGI的一个核心的门槛吗
    我认为还是模型自我提升能力
    就还不到
    数据的能力
    我认为是他如何自己去提升
    人在学习的过程中
    其实你是不断在寻找学习的信号
    然后自己去做一些思考的
    很多的这些思考都是内化的
    可能不是外界来的这个token
    嗯不是说我们外界的
    整个世界的数据不够了
    所以我学不好
    这学不好还是我自己的问题
    呃然后还有第二点是说人
    就是你如果看专家的学习的
    他其实是一代人比一代人更强的
    第一代人
    他我要反复尝试
    这尝试有点像是一个搜索的一个过程
    比如我有一天在野外蹦蹦蹦蹦
    蹦到一个地方
    然后跳出来一个蘑菇
    然后我可能会把这个记录下来
    他就变成了后人的一个knowledge
    所以人其实学习的高效性
    很多的时候
    也不是说因为我探索的高效性
    而是说
    我把之前学习最重要的一些knowledge
    记下来然后
    后面所有的人的学习效率都提高了
    不管是围棋啊也好
    音乐也好
    对吧
    每一代人他们探索出来一些新的技术
    他会被记录下来
    后边的人就会用上
    这种高效的学习方法
    之前有一本写的非常好的书叫做pick
    就是讲如何做专注的这种学习
    我其实觉得大模型可能来训
    练之前的大模型
    然后用来做出更好的数据
    然后再提升自己
    然后训练出来下一代的大模型
    也可能这会变成一个趋势
    但是说到底
    我认为还是要解决那个efficiency的问题
    就是说我们如何用少量的头盔
    获得那么强的泛化能力
    我觉得这个是一个圣杯问题之一啊
    现在业界有哪些流派
    最近其实争议挺多的
    我看Yann他之前就是你的博士生导师Yann LeCun
    他一直是不太认同纯强化学习的方式
    Anthropic
    其实他们在Sonnet 3.5之后
    它一直还没有特别好的
    一个推理模型出来嘛
    但是比如说OpenAI O1的这个推理模型的思路
    包括这次DeepSeek放出来的
    R1的这个思路
    我觉得其实在业界
    在2024年可能也是一个
    就是稍微标准一点的做法了
    当然Yann他也有不同的看法
    所以我是在想
    在整个大模型的这个训练的
    范式的转变上
    你觉得业界现在还是一个争议很多
    大家有完全不一样的思路跟方法
    还是慢慢的
    就像你刚刚说的
    你就没有创新了
    大家都是归一了
    我觉得有很多创新
    只不过说
    当你把很多的capital bring进来以后
    你说我要快速scale
    大家scale的方式
    有点让我看起来
    感觉好多的时候是有点单调的
    创新的点其实还是有很多的
    我其实觉得样一直在推动的
    叫做世界模型嘛
    这个世界模型
    其实当时是因为
    我们看了David Ha的那个文章
    叫world model
    我觉得哎
    概念上没什么新的
    但是名字很酷
    一个polish的名字
    而不是说几十年前就有的这个概念
    然后我们就后来就adopt
    这样的一个名字
    那在我看来
    这个定义其实超级简单
    世界模型其实就做的一件事情
    就是说给定当前的状态
    给定当前的action
    就是你的行为
    预测未来
    当然你能预测的越好就越好吧
    但只不过说大家有不同的侧重
    这个是一个非常重要的概念
    我觉得世界模型是一定应该发展的
    举个例子
    就是你刚刚定义的那三步
    只能举一个具体的例子吗
    什么是世界模型
    一个具体例子
    其实GPT
    你可以认为和世界模型相当像
    就是generative portraining
    它里边的有一个声音
    就是说给定之前的context
    过去的token
    就所有的词
    然后预测下一个
    网上的各种数据
    哎对
    我预测下一个
    这里面和世界模型唯一的区别就是

  • E179_DeepSeek技术解析_为何引发英伟达股价下跌_(3)

    是不可能绕过去的一个点
    不管说
    我们做大模型的各种各样training
    实际上最终
    我们希望能让它实现类人的智能
    那么不管说
    我希望它能够做问答也好呀
    我能够预测未来也好呀
    然后呢可以去做coding也好
    或者说去做这种推理和规划的能力
    其实都是希望能赋予他人这样的智能
    但是人有一个非常非常的强的能力
    就是人的学习的效率极其之高
    有两种估算我觉得都是有一定道理的
    第一种估算是baby LLM在里边的一个估算是
    到人的13岁之前
    你所接受的token还是word小于100 million
    第二种估算呢
    是说假设从人出生开始
    每秒钟你可以take in 30个token
    大概是10个词
    你每天12个小时
    20年
    这个你最多是10 billion的token
    那么这两个数放在这
    然后呢我们说Llama 3
    它的pretraining
    其实已经到了15个trillion了
    所以你看我们的大模型
    实际上现在一直在操作的一个思路
    是说我们要scale
    就是更大的模型
    更多的数据
    更多的计算
    然后让我们的模型更强
    这个没有任何问题
    但是呢你会发现
    它比人所拥有的数据的数量级
    已经开始大了
    3个4个数量级
    那么这个时候
    可能我们要反问一个问题
    为什么人可以如此高效的方式来学习
    我认为推理和逻辑
    还有规划的能力
    可能是
    构成这样一个高效性的原因之一
    可能还有因果呀
    等等的一些其他的原因
    然后我认为发展大模型的过程中
    如何实现这样的高效
    也是非常重要的
    所以现在大模型跟
    人脑相比
    它的学习效率还是低很多
    就是至少从数据上来看低很多
    几个数量级的方式低
    这个非常像当年的蒸汽机
    刚一开始出来
    我记得我看过一个数
    就是早年有一个估算
    说它的这个能量的效率是0.02 percent
    那到今天可能是有20个PERCENT对吧
    哎刚好也差了3个数量级
    所以我觉得
    什么时候我们对数据的燃烧的效率
    可以提高3个数量级
    这是当年我跟Yann讨论
    他启发我的一个问题
    我们有次在吃午饭的时候
    聊到这个问题
    什么时候我们觉得数据的
    我们的燃烧效率可以提高三个数量级
    的时候可能这种general的intelligence
    或者human level intelligence
    就可能更加可能一些了
    但是在此之前呢
    我认为只有scaling可能是不够的
    对我跟大家解释一下
    羽北刚刚提到的Yann
    是指Yann LeCun
    他的中文名字是杨立昆
    他是羽北的博士后导师
    也是图灵奖得主
    跟Geoffrey Hinton和Yoshua Benjo一起
    被称作是深度学习三巨头
    他同时也是Meta的首席科学家
    待会呢
    我们会有一部分专门去讨论AGI啊
    那个时候我们可以详细展开
    聊一下他的思想
    那在此之前
    我们先把DeepSeek的这部分聊完
    我们先说一下开源
    你们觉得DeepSeek他选择开源的这条路
    它对行业的生态具体会有哪些的影响
    就比如说
    我知道
    最近可能在美国的一个论坛Reddit上
    大家很多
    已经开始去部署DeepSeek的模型了
    然后其实
    我很想知道他选了开源以后
    这个开源到底是怎么去反哺他
    让他能把模型做得更好的
    对最近我们其实也部署了一些DeepSeek
    这种模型在我们平台上面
    我觉得它开源
    其实是一件
    对整个AI行业非常好的一个事情
    因为去年下半年以后
    大家会感觉有一点失落
    因为AI application看起来都起不来
    起不来的有一大原因
    就是很多人觉得
    OpenAI其实把所有application的壁垒
    基本都当打掉了
    个百分之八九十吧
    就大家其实都是比较惶恐的
    就是我做一个什么东西
    然后
    明年是不是OpenAI出个什么O4啊
    什么就把我这东西全部带了
    那我如果做这个东西
    建立在OpenAI上的话
    那就更麻烦对吧
    我建立在OpenAI上
    它出了一个新的模型
    把我的application完全包含进去了
    那我在价格上也没法跟他争
    我在功能上没法跟他争
    那这就导致很多人其实就压手对吧
    他就不太敢去做
    然后VC也不太敢进来
    那我觉得这次DeepSeek给他开源
    其实对整个行业的一个好处就等于
    就是大家都有了自己的OpenAI
    我其实就是作为一个小的
    这个application Developer
    我不再害怕OpenAI出下一版本
    把我淹没
    或者把我淹到我没法跟他竞争
    或者我的产品就干脆再用他的API
    然后我就直接就死了
    那我现在用的是一个开元的
    做非常好的一个模型
    那这样的话
    我其实有一定的这种continuity
    我就有更大的
    更多的信心去做更多的application
    那DeepSeek
    如果它再能有能力去超过OpenAI的话
    那这个事情
    我觉得对整个行业就更好了
    就等于说是有一条恶龙
    现在它不存在了
    那大家其实发展的就能更好一些
    那更多人用它的
    其实它就跟Llama的逻辑是一样的
    有更多人用
    然后有更多反馈
    所以它的模型能做得更好
    那DeepSeek它其实也是这样
    如果有更多的application Developer
    大家都觉得用这个
    等于自己拥有了自己的OpenAI
    那它收集数据的速度
    肯定是比其他的model都快很多
    嗯对
    现在我们能看到一个开源的模型
    它在整个的性能上
    已经跟OpenAI的O1
    我们说可以说超过或者说接近
    但是基本上是同一量级的
    对不对那可以预期OpenAI它很快发了
    O3 mini之后呢
    开源模型可能也会升级
    也会有下一个版本
    再来超过这些闭源模型
    这是我是在想
    当一个开源模型
    它的性能足够好的时候
    OpenAI就是这些闭源模型
    它存在的意义是什么
    因为大家就直接可以拿到
    这个开源模型的底座去用了
    DeepSeek的意义在于它的价格降了很多
    它是开源的
    它跟OpenAI最前沿的这些模型
    差不多好
    它不是说比OpenAI已经好了
    那确实就说它后来这个闭源模型
    它有什么意义呢
    意义就在于
    它可能还会是领先的一个趋势
    就像苹果安卓对吧
    苹果其实还是比安卓
    好的这是leadership and concentrate
    它更有可能做出更好的这个产品
    但是开源的意义可能就在于
    它像安卓一样
    就谁都可以用
    然后非常便宜
    那这样它降低了进入行业的门槛
    所以它可能才是真正
    让这个行业蓬勃的一个因素
    然后这些闭源的模型
    它有可能是一直领先的
    闭源如果还不如开源
    那可能就没有意义
    但它应该是有management上面的这个优势
    它应该是超过开源
    那现在看起来
    确实是有一批闭源不如开源的啊
    那就自求多福
    哈哈哈如果必然还不如开源呢
    我也不知道这公司在干什么
    你还不如免费好
    我觉得开源的生态是非常重要的
    因为我除了在实验室以外
    我之前参与一家公司叫Aizip
    这也做很多的全栈的这种AI应用
    然后你会发现一件事情是说
    很多这种开源的模型
    你直接是无法使用的
    就是产品级的东西
    你无法直接使用这些开源的模型
    但是如果有这样的开源的模型
    可能会大大提高
    你生产出一个这种产品级的模型的
    大大提高你的效率
    所以你像DeepSeek也好
    Llama也好
    我觉得这种开源的这种生态
    对于整个的community来讲
    是至关重要的一件事情
    因为它降低了所有的AI应用准入门槛
    那其实见到更多的AI的应用
    它有更多的触及
    这件事情是对于每一个做AI的人
    是一个非常利好的一个消息
    你其实不希望就说
    我们做大量的training
    但实际上real life
    里面
    真正能用的AI的application非常非常少
    对吧
    第二是它定价定的非常非常的高
    这样的话
    对于整个的生态
    是非常不健康的一种状态
    所以
    我认为Meta在做的这件事情很重要
    对吧就是它这个Llama
    一直在坚持open source构建
    这样让所有的AI的开发者
    都可以做自己的应用
    对吧虽然Llama并没有把这个应用
    直接给你做完
    他给你提供了一个foundation
    foundation顾名思义
    它其实就是一个地板对吧
    你可以在这个地板之上
    你可以构建你所想要构建的这种应用
    但是呢它其实把90%的任务给你做好了
    我认为更好的
    这样的foundation
    其实对于整个生态
    是非常非常重要的
    OpenAI下大功夫来优化的一些能力的话
    他依然会有这样的优势
    但是
    我们也不希望这个市场上只有OpenAI
    那对于所有的人来讲
    可能都是一个不利的一个消息
    还有一个问题是
    DeepSeek他们
    是怎么把API接口的价格给降下来的
    因为我看了一下他的R1官网
    写的是每百万输入的Token
    缓存命中的是一块钱
    然后缓存未命中的是4块钱
    然后每百万输出的token是16块钱
    然后O1的价格
    我整体算了一下
    差不多
    每个档位都是它们的26-27倍之高
    它是怎么把这个API的成本
    给降下来的
    它等于是从上到下
    做了整个的一套优化
    从PTX这块怎么调用底下的GPU
    到MOE的架构的loade balance整个的它都做一套优化
    然后我觉得这里面可能最重要的一点
    就是它可以降低了对芯片的要求
    就是你本来可能非得在H100上
    A100上跑
    然后你现在可能可以用稍微低端一些
    或者你甚至可以用Groq啊
    你可以用国内的那些阉割版的H800
    或者H20啊这些卡去跑
    那这样它其实就已经大幅度的
    降低了每个token的成本
    然后它里头如果再做优化
    比如切割GPU
    virtualize GPU啊这方面东西
    它其实可以降下来很多
    而且OpenAI内部其实也说不定
    人家早就降下来
    他只是不想降Retail的价格
    这也不确定
    我觉得主要就是这两个吧
    一个是架构上
    一个是芯片可以降级

    那芯片降级
    未来会成为全行业
    一个比较普遍的事情吗
    啊我觉得也不会
    因为英伟达的老芯片全都停产
    所以市面上其实有限的
    就比如你虽然可以说啊
    我这个能在V100上跑
    但是V100早就停产了
    而且每年它要折旧
    所以你可能过两年市面上就没有V100
    英伟达它只会产最新的芯片
    那它的成本还是低的吗
    如果你在新的芯片上做一些优化
    比如像我们做这种切割GPU
    那就有可能会变低
    因为它这个模型变小了嘛
    就我们最近跑它那个7B的模型
    其实就是20个g左右
    那我们就拿一张H100把它切了1/3
    然后就跑这个DeepSeek
    那你成本直接就降了1/3呗
    可能我觉得后来会是更多的虚拟化GPU
    来降低成本
    因为如果只是基于老卡和游戏卡的话
    首先游戏卡英伟达是Blacklist
    你不能用游戏卡去正规的Host
    这些模型
    然后你用老卡
    就是刚刚说的老卡停产
    而且老卡有很多维护啊这些问题
    所以
    我并不觉得它会成为一个主流的现象
    嗯所以
    其实现在
    你们是提供给大家去做芯片优化
    然后来去节省成本的
    这样的一个工作的
    那你最近客户应该是暴增
    你觉得这个是受益于DeepSeek
    还是说你们一直在做这件事情啊
    我们从去年开始就在搞这件事情
    我们也是一直在赌
    后面会有更多的小模型
    然后刚好DeepSeek出来以后
    DeepSeek刚才说就是有带来的一个趋势
    也是它会蒸馏出更多的小模型
    那大家如果跑更多小模型的话
    其实就需要不同型号的芯片
    如果每次都去用物理芯片的话
    可能是比较难弄的
    嗯刚刚其实我们有提到DeepSeek
    它让它的整个的API成本降低了吗
    你刚也分析过它的这个研究方法
    就它的这套研究方法
    未来你觉得它们有可能会用到更多的
    比如说你们在做GPU的分片
    跟客户的一些模型中吗
    就是它的这个研究方法
    会不会带来整个行业的一次
    大家对GPU成本更低的一次节省
    你就说它reinforcement learning的那些方法吗

    应该是吧
    就它这个出来了
    应该是给行业证明了
    现在有更优的RL的一个方法
    我觉得
    后面肯定会有很多人用相同的方法
    去做这
    个事情而且
    尤其是他自己去调用库的这一块儿
    以前可能没有人有勇气去试这件事情
    当然他们证明了
    就我们这么几个博士生毕业
    也可以很快弄一个绕过你们CUDA
    那后面可能很多的这种模型
    公司都会去效仿
    那这样的话应该是大家都这么搞的话
    成本肯定会下降
    所以我理解训练成本降低了
    推理成本也大幅的下降了
    对所以
    你们现在帮客户
    去部署这种GPU的时候
    客户的主要需求是什么
    简单便捷
    很快的部署上来
    价格弹性价格低
    这个价格低指的是前面部署的
    还是说整个后面的一套的解决方案
    就所有地方价格低他都是开心的
    但是我们只能解决他部署这一块的
    这个成本
    其实是有很多浪费的
    所以我们在做这个技术
    就是你比如拿一张A100 H100他都是80个g
    但你要蒸馏出来一些小模型
    或者就是你就用现有的什么snowflake啊
    databricks这种模型
    那也就是个10个g
    有的还更小
    那其实你在80G上
    不属于一个10个g的东西
    你就等于大部分的GPU全部浪费了
    但是你还是要付整个GPU的钱
    就假如你用H100
    你其实是想用它的那个速度
    你想要它那个4纳米那个速度
    所以你还是要整张卡租
    然后你在inference的时候
    你的workload其实是一个弹性的
    就是有时候你客户就增了很多
    有时候就减少了
    那如果你一张卡上
    浪费了很多的space的话
    你扩的时候
    其实每张卡上都浪费了很多
    那现在我们在做的这个事情
    也等于说是我把它虚拟化了以后
    你就完全没有浪费
    就等于比较简单粗暴的
    解决了很多GPU部署成本的问题
    这个领域其实还有一个有意思发现
    就是说在过去的6-8个月吧
    我觉得觉得这种小模型的能力
    进展非常之快
    这带来一将来一个变革
    就是说我之前一开始说到了
    全世界有99%的算力是对大家不可见的
    大家不会觉得一个arm的芯片里
    一个高通的芯片里面
    它有这个AI的能力
    那么未来的话
    如果有大量的这种小语言模型
    然后有各种各样的这种VLM
    有Audio intelligence等等的这些能力
    可能会越来越多的出现
    在曾经不会被用到的这种平台上
    那现在特斯拉的车上已经用到了很多
    但是越来越多的时候
    你会发现手机里耳机里
    眼镜里哎
    眼镜里这个也是一个火爆的一个单品
    现在出来很多眼镜的公司
    但越来越多的这些设备里边
    也会出来这种on device的AI
    他们对于降低成本
    提高AI的可用性
    我其实觉得未来是有巨大的机会的
    小模型好用吗
    小模型其实在很多的领域
    有很多的基本的应用
    你可以发现
    当你把小模型给到足够的training以后呢
    他其实最终和大模型的性能
    其实差不多
    说一个具体的应用场景
    就比如说咱们现在正在录制这个节目
    咱们用到这个话筒
    话筒里面会有降噪的这些功能
    然后你这个降噪的功能
    你可以做出来极限小的neural network
    这神经网络
    它其实可以就放在话筒里边
    你把模型放大10倍
    放大100倍
    然后你会发现它们的性能差不太多
    就是最后的这SNR
    其实没有太大的变化
    那这个时候
    你就可以把它放到这里边了
    以后所有的话筒里面
    都会跑一个AI的模型
    然后它已经把降噪的这个东西做完了
    所以越来越多这样的功能会集成进来
    比如说小语言模型
    我们可以放到一个手表上
    那它可以做一些基本的问答

  • E179_DeepSeek技术解析_为何引发英伟达股价下跌_(2)

    其实是有一点削弱英伟达互联的
    这一块的一个重要性
    他现在其实可以说
    就是我不同的Expert放在不同的卡上
    那我之间这个互联可以做的
    不是有那么重要
    而且有一些dormant的一些Expert
    不用的时候
    他就休息了
    那这其实对英伟达的互联
    这一块的需求
    是有一点冲击
    另一块就是对CUDA这一块
    它其实是告诉大家
    现在有这么一种可能
    以前大家都没有觉得它可以绕过CUDA
    现在来说哎
    我们这个团队其实是可以绕过CUDA
    直接去用PTX
    然后做一些optimization
    当然这不是说
    以后所有团队都有这个能力
    去做这件事情
    但他至少提供了一种可能性就是
    现在你有可能做这个事情
    有可能做这个事情以后
    就导致我有可能不需要买英伟达的卡
    或者
    我不需要买英伟达最先进的这个卡
    或者我可以用更小一点的英伟达的卡
    去跑这个模型
    什么叫做绕过CUDA
    他是真的绕过CUDA了吗
    就是我听到一种说法
    是说其实他用的不是那个CUDA
    比较高层的API
    但是他还是用了CUDA比较底层的这些API
    用词不太准确啊
    就是没有完全绕过CUDA的
    这个ecosystem
    就是它可以直接去调用CUDA
    底下就不是刚你说那个很高层那个API
    它可以直接去调用PTX
    就是在这个instruction set上
    头一层的这个instruction set
    然后他在这一层直接做一些优化
    但是这个也是挺大的一个工程
    他并不是说
    任何一个小公司
    都有能力去做这件事情
    对那如果DeepSeek它有这种能力了
    业界其他公司会有这种能力吗
    就比如说
    如果大家现在假设
    我买不到英伟达的GPU
    我用AMD的GPU去做
    那因为AMD跟英伟达
    就是你刚刚讲的两个核心壁垒
    一个是NV link
    还有一个是CUDA
    如果这两个都有
    某种程度上受到冲击的话
    你觉得现在对AMD这样的公司
    它会是一个利好吗
    呃我觉得短期来说对AMD是一个利好
    因为AMD我记着它最近已经宣布
    它把DeepSeek给弄过去了
    但是长期来看也不好说吧
    长期来看我觉得可能还是因为大
    因为这毕竟只是DeepSeek这一个模型
    酷大厉害的地方在于
    它是一个通用的
    这种GPU调用的一个软件系统
    就是你什么软件过来都可以用酷的
    但是DeepSeek这种做法是它只支持DeepSeek
    所以你后头有别的模型
    你还要再重新识配一次
    那我们就是在赌
    就是
    以后是不是DeepSeek就真的是gold standard了
    DeepSeek就真的是这个OpenAI了
    所有的这个初创都在DeepSeek上见
    那如果是这样的话
    那对AMD挺好的
    因为它已经移植过去了DeepSeek
    但如果后面不是DeepSeek
    就比如DeepSeek
    其实它的伟大也是在于它对reinforcement learning
    GRPO啊这些方法的一些改进
    那后面的更多模型
    如果都是用这种方法
    你有可能来日方长
    那不一定是DeepSeek
    它如果再是别的模型的话
    那别的模型它又要重新适配
    那就还是挺麻烦
    还不如用CUDA

    所以你的核心观点是它动摇了
    就是英伟达的这两大非常厉害的
    NVlink跟CUDA
    那从GPU的需求上来看呢
    首先我没觉得它动摇的这两个壁垒
    我觉得这两个壁垒
    还是非常坚挺的壁垒
    只是它对这个溢价有一些冲击
    就是你可能收不了那么高的价格
    但是也并不代表
    其他的竞品能突然就进来
    就是它是一个非常漫长的过程
    就是其他竞品做的
    跟这两个壁垒不太一样
    就是你可以就像我刚刚说的
    你针对这一个模型
    你可以绕过这个东西
    但是没有人做出
    就是英伟达CUDA那种就是通用的
    我全都可以绕过
    所以在这个上面
    其实是没有冲到英伟达的壁垒
    只是DeepSeek提供了一个
    就比如有个墙
    现在有一个人
    大家以前都觉得翻不过这个墙
    现在这个人跳过去了
    然后他说哎
    你看我可以跳过去
    你们也有可能跳过来
    但如果这个人开远了
    大家开始用他的模型了
    但是不行
    就是只能他跳过去
    不是说就是他跳过去了
    别人现在也都能跳过去
    这就是这件事情
    他为什么冲击了衣架
    但是没有打倒壁的
    就这个墙没有变低
    但这个人现在告诉大家他可以过去了
    他说it’s possible to go over
    那你们其他人能不能过来呢
    我只是提供了一个精神上的一个鼓励
    啊就说这件事情是有可能的

    对GPU的需求会减少吗
    因为他们这次训练成本低
    所以某种程度上
    把这个股市的跌也理解成
    是不是大家需要更少的GPU
    就可以训练出更好的模型了
    对就是
    如果就是训练这一个模型的话
    那是这样
    但是DeepSeek出来真正的伟大的意义是在于
    它重新激发了做AI这些人的热情
    那这么来看的话
    应该是会有更多的公司出来
    他们会买更多的芯片
    所以这件事情有可能是溢价降低
    销售量变大这么一个事情
    所以那他最后市值是变大还是变小
    你就看你中间的这个比例是怎么样
    你自己的观点呢
    这个不好说吧
    这个还是得看application
    就是25年大家能玩出来什么花样
    如果之前觉得
    application出不来的一大阻力是GPU
    价格的话
    那应该因为大它的市值会涨
    就等于现在这个价格变成1/10
    甚至更低了
    那这个阻力就不在了
    但是如果它的阻力是别的的话
    那就不好说了
    所以其实就是越多的AI应用出来
    DeepSeek把这个门槛降得越多
    从GPU的需求上来说
    整体上是对英伟达更利好的
    对因为application出来的这些人
    他不会自己雇一个团队
    去把DeepSeek干这些事干一遍去
    他绕过CUDA去搞什么PTX
    就他出来都会是一些很小的这种公司
    他只是想要拆箱就可以用的这种solution
    所以这样的话它还是英伟达
    所以英伟达应该最想看到的局面是
    更多的AI公司出来
    更多的AI公司出来
    他们需要的是模型的GPU
    还是更多的推理芯片
    我其实个人感觉
    推理芯片后面也会是英伟达
    我不觉得这些小公司长期有一些优势
    他短期肯定是大家都有优势
    如果一直是用DeepSeek的话
    那确实是有一些
    但是长期我觉得推理可能也是因为打
    训练也是因为打
    嗯为什么推理是因为打啊
    就是因为它还是CUDA
    然后它还是这个行业的龙头
    刚才说那两个壁垒其实也没有动摇
    这些ASIC公司主要的是两个问题
    一个是软件支持不够
    另一个是硬件其实是没有壁垒的
    就像我们看一些Groq啊
    Cerebras啊这种公司
    它们其实是一个大的Wafer上头
    然后做这种芯片
    当然其实就是在硬件上看来
    它只是一个Cuda core
    和Tensor core之间的一个比例
    它并不是说我在某项上做到了
    英伟达做不到的一个东西啊
    你比如说TPU
    TPU它其实100%都是Tensor core
    但是你说英伟达要想做100% Tensor core
    它做不了吗
    也不是它只是觉得100%都是Tensor core
    没有这个市场
    所以他如果觉得
    就是我哪天想做Groq这个比例
    我觉得英伟达要做那个没有什么难度
    就他其实硬件上
    我身上没有看到很强硬的壁垒
    大家其实基本有点趋同的趋势
    然后软件上是它另一个大的问题
    就这些ASIC的这种公司
    软件的维护其实做的都不是特别好
    就是连做到PTX那一层的维护
    都不是特别好
    就连TPU TPU用的也是英伟达的PTX对吧
    它的instruction set
    所以这两个就导致了
    可能英伟达还是一直占有龙头地位
    推理芯片对软件的要求也同样高吗
    我其实是在想这样一个问题
    就是比如说
    在整个GPU跟训练的这个芯片上
    英伟达有绝对的垄断地位
    是因为它的整个的软件
    你是离不开
    或者很难绕过这一套系统的
    但是推理上它方便绕过去吗
    推测对软件要求也很高
    你还是要去调用
    底下的GPU的一些底层的instruction
    所以像Groq
    他们不是说自己性能很好吗
    但是他的软件侧其实还是没有建起来

    Groq软件侧
    比英伟达软件侧还是差得非常远
    所以你看他们现
    在做的模式其实越来越重
    他刚开始就做个芯片
    现在他又做了自己数据中心
    然后又做了自己的云
    他就等于把这一套vertical全部在站着
    但他资金跟英伟达比可差得很远
    他凭什么能做的更好
    那你觉得现在市场上
    有非常值得关注的芯片公司吗
    我觉AMD有一定可能吧
    但是其他的ASIC我觉得可能还差一些
    但是就看AMD来说
    应该跟英伟达还是有很长一段距离
    嗯如果从投资创业这一块来看
    你觉得有公司在
    芯片未来的推理策他是能成的吗
    啊我个人感觉就是
    如果要在芯片这块创新
    可能更多聚焦在芯片的软件
    这块的维护
    可能会好一些
    而不是去在硬件上做一些比如DDR啊
    tensor core cuda core这之间比例的一些调配
    我觉得这块其实是没有什么意义的
    你等于只是在帮英伟达当一个大头兵
    去看一下就这个比例有没有人要啊
    但是其实你建立不了什么壁垒
    但是软件这块
    其实是有挺大的优化空间
    就是
    你要做出一套比CUDA更优的一个软件
    可能这块会有很大机会
    但也不是一件很简单的事情
    嗯中国的公司有机会吗
    华为所有人都有机会
    哈哈哈
    对我是在想这样的一个问题啊
    就是因为美国对中国有芯片禁运嘛
    那他们其实也更有动力
    去在底层上去做一些研发
    包括在软件侧去做一些研发
    因为你刚刚提到了
    其实芯片侧它的研发
    硬件上大家都有一种趋同的趋势
    那如果在这样的一种高压的环境下
    比如说有一些公司像华为
    他们也财大气粗对不对
    他也可以在软件侧去做一些重的投入
    然后把这个生态给逼成了
    啊华为是有可能的
    如果中国的话
    它硬件上还是需要做出一些进步的
    就硬件还是有门槛的
    对因为中国连生产芯片的这一块
    都被制裁了
    它不是说英伟达一家在制裁它
    它是从高速内存到芯片的组装
    到packaging
    到底下台积电这块生产芯片
    到ASML卖给它光刻机
    它是整条产业链全部在制裁中国
    所以中国如果要出芯片
    像华为那它不仅是一个软件的问题
    它是整个制造的这一条链
    全部要搞出来
    然后再把软件搞出来
    嗯懂了
    解释的非常清晰
    这次其实DeepSeek出来了以后
    我其实反而觉得
    对英伟达这样的公司是一个利好
    之前的话
    大家有一个想法
    Transformer出来了以后
    哎这七年之内
    Transformer的这个架构它没有变化
    那么如果以后一直是这样的话
    那么对于英伟达来讲
    是一个非常不利的消息
    因为你像CUDA
    它最擅长的一点就是说它是通用性
    它支持很多不同的架构
    然后所以在模型架构快速改进的时候
    这个是对英伟达是最好的
    假设一旦说我们从某一天开始
    所有的模型的架构不在变了
    那你就可以想象啊
    那是不是我就可以做ASIC了
    对吧
    那我就可以专门优化这个Transformer
    attention的
    这个mechanism
    等等的但是恰恰是
    比如说像DeepSeek它用到了MOE
    它用到了Laten Multi-head Attension
    这些对layer进行改进
    对这种计算进行改进了以后呢
    又回到了一个哎
    模型又要改进了
    对吧
    这个对于英伟达来讲是一个利好
    可能会对OpenAI来讲不是非常利好
    因为像Sam
    他自己也出来说了
    如果你能找到比Transformer更好的
    这个架构
    那我们很多的investment都会in trouble
    我是觉得eventually这个架构还是会变
    你像DeepSeek这次出来以后
    它在推这些架构的改变
    包括之前从MOE出来以后
    推这种架构的改变
    这可能对于OpenAI
    这样的公司来讲的话
    是一个冲击
    嗯对
    因为我注意到
    其实大家这次说DeepSeek
    R1做的特别好的是推理能力嘛
    能不能给
    就是我们普通不懂技术的听众
    普及一下
    什么叫做推理能力
    就是为什么推理是很重要的
    那如果不是推理
    它的另一端是什么
    推理的话
    其实就可以认为是
    我要做一个复杂的任务
    我直接无法输出这个的结果
    所以我可能要中间有些草稿纸
    可能要做一些计算
    依赖这些中间的过程
    我可能输出结果
    也可能要做更多的计算
    所以基本上就可以认为
    不管是推理也好
    不管是plan也好
    还有reason也好
    都需要刚才我说的这样的一种能力
    就是说我现在要解决一个问题
    或者说我看到一件事情
    它发生了
    我想知道哎
    它为什么会发生
    然后你要往前倒在
    我的定义里
    我管这个叫做reasoning
    就是反向的去思考
    可不可以用现实的生活举一些例子
    比如说数学式推理
    代码式推理吗
    代码的话
    其实取决于这个任务的复杂性
    它是否需要中间步
    凡是需要中间步过程
    我认为都属于一种推理的过程
    不需要中间步的任务有哪些
    能不能举几个例子
    方便大家理解
    咱们就以以这种language model agent的一个方式
    来举个例子
    对吧就是比如说今天的天气怎么样
    那么这个任务的话
    就相当于是一个非常直观的一个问题
    对吧
    就是说我现在想知道天气是什么样
    然后这个语言模型
    它可以直接调用天气的这个API
    把天气给我拿过来
    这个任务就结束了
    它这不算推理
    嗯对
    不算推理
    但是以下这个任务就算是推理
    比如说我现在在加州
    在Palo Alto
    我现在要去纽约
    能否给我找一个最快的一条路线
    那么你这时候你会发现哎
    有几种路线
    可能是坐这几班飞机
    这么着可以过来
    然后也可以是说
    我可以先开车到附近的一个机场
    然后再去搭乘这样一班飞机
    对吧有不同的这种选择
    那他就需要一些中间部
    调用API也好啊
    自己的一些思考也好在里面
    对所以发展大模型
    最核心的是发展他们的推理能力吗
    或者说一个大模型
    我们去判断他的一些核心的能力
    只有哪几部分是特别重要的
    我觉得发展大模型在我看来
    有几个非常重要的任务
    不光是这种推理
    和planning
    为什么大家对推理和对规划的能力
    非常的重视
    因为很多听众可能都听过一个
    就是有一篇非常著名的文章
    是Rich Sutton写的
    叫做The Bitter Lesson
    然后我觉得这个写的非常非常好
    就是他在2019年写这篇文章
    我每年都会让所有的同学
    全部重新读一遍
    这个文章就是do not try to be too smart
    这里边他提到了两种最general的能力
    来自于一种是学习
    一种是搜索
    实际上是学习的过程
    你大模型之前的
    比如说在这种无监督学习啊也好
    他的fine tuning
    就是后边的监督的fine tuning也好呢
    它其实你可以认为
    规划到学习这个方面
    那么现在的说的
    这种推理和规划的能力
    实际上它是一种搜索的能力
    所以这两种它都反复出现
    DeepMind就比如它冲在前面
    其实是它很侧重的是后面的
    搜索的这个能力
    对吧他如果做这种Alpha Zero啊什么的
    做这些Alpha go啊
    他做了很多这样的工作
    那么这两者结合起来
    显然是应该结合的
    然后这次DeepSeek R1他也做的是
    说是先通过自我的启发式的搜索
    然后再通过学习
    用这样一个Rule Based的方法
    其实把这两种能力结合起来
    那么我觉得这是很重要的
    但是在发展大模型的过程之中呢
    我其实觉得还有一个至关重要的点
    我认为如果你想通往AGI的话

  • E179_DeepSeek技术解析_为何引发英伟达股价下跌_(1)

    欢迎收听硅谷101
    我是泓君
    大家过年好
    大家春节过得怎么样
    我是整个春节期间
    都有被DeepSeek给刷屏
    而且它其实不仅仅是在中国火
    它也是现在硅谷
    还有华尔街讨论的热点
    那DeepSeek是在1月26号那一天
    登上苹果APP store榜的榜首的
    从那之后的18天
    它的下载量是1,600万次
    如果我们对比OpenAI发布
    ChatGPT的同期下载量了
    它是ChatGPT同期下载量的1.8倍
    现在呢已经成为了全球140个市场里面
    下载量最多的应用
    那DeepSeek引发关注的另外一点
    它的出现
    也带来了美国科技股的全线下跌
    在1月27号的那一天
    英伟达它的跌幅就接近17%
    市值蒸发了5,890亿美元
    按理说像DeepSeek这种低成本高性能
    同时还是开源的模型啊
    它的出现
    应该是带来整个AI创业的繁荣
    那市场呢
    就应该需要更多的GPU
    那所以按照这个逻辑推理
    英伟达的股价应该是涨而不是跌
    但是为何英伟达不涨反跌呢
    这期节目
    我们就会详细的来解释这个问题
    那除此之外呢
    我们也会深度解析DeepSeek的核心技术
    以及对整个芯片产业
    还有开原生态的影响
    在过去的这一周
    我们在硅谷
    做了10个跟DeepSeek相关的深度采访
    我们就不一一在播客里面呈现了
    大家感兴趣的话呢
    可以去观看硅谷101的视频
    我们现在也正在加班加点的制作中
    那下面就先请收听我们今天的播客
    那今天我们来聊一聊
    最近可以说是大家都在热议的DeepSeek
    那跟我在一起的呢
    也是大家的老朋友
    加州大学戴维斯分校
    电子与计算机工程系助理教授
    陈羽北
    羽北你好
    你好

    还有一位是Inference.ai的创始人与CEO
    John Yue
    John你好
    那今天其实正好羽北
    我觉得
    你可以从模型跟算法的方向来讲
    然后John
    可以跟我们从算力的方向来分析一下
    正好是在两位这个专业的方向上啊
    那我觉得
    首先
    可不可以先总体上给大家介绍一下
    就是为什么这次DeepSeek一出来
    它立刻不管是在股市上
    还是说在中美之间的这个讨论
    它都引发了大家的关注
    那羽北
    你先从技术上给我们简单分析一下
    他有哪些比较惊艳的表现吧
    我觉得
    这次就是引发这么大的一个讨论的话
    首先就是DeepSeek
    在所有的这些Language model的团队里面呢
    它本身不是一个非常的
    知名的一个团队
    在之前就很多人其实不知道DeepSeek
    他们很低调
    第二个是说呢
    这次媒体报道出来的一个talking point
    我觉得是说他们低成本
    然后用基本上用不是最好的算例啊
    然后用很便宜的价格呢
    就超越了OpenAI
    那我认为这个呢
    可能对于很多不了解以前的
    他们的背景的读者吧
    他会造成一定的冲击
    对整个的股市也会造成一定的冲击
    然后第三个呢

    它确实这次DeepSeek做出来的这个模型
    在Benchmark上跟O1达到了一样的
    差不多的水平
    甚至更好
    伯仲之间
    所以这个可能对大家也有一个冲击
    就是说是不是美国的leadership不存在了
    我觉得主要的引发这么大的一个讨论
    是从这么几点来的
    我觉得就说
    这个报道还是有一定的片面性的
    嗯对对
    我觉得在展开以前我非常想follow一下
    你刚刚说的
    就是是不是美国的leadership不存在了
    你怎么看这个问题
    这可能也是大家最关心的一个问题
    我其实觉得当然DeepSeek的技术很好了
    但是我实际上感觉
    就是说在泛化能力上面
    我的一个初步的一个感觉
    还是说O1的这个模型呢
    在一般的任务上的泛化能力
    还要更强一点
    第二个呢是说我觉得有一点确实是
    就说大家在大模型上的这种技术
    大家对他理解和技术
    或者说做的方法
    在一定程度上我觉得这个速度下降了
    就是大家想的有点相似
    做的很多东西在收敛
    那当这个时候的话
    他其实不是美国的技术
    领先的一个问题
    而是说是整个学界大家的想法
    这种创新性
    我其实觉得在这一点上是有convergence
    这个确实让大家会觉得有这么一点
    就是slow down
    就是会下降吧
    整个的速度
    你说创新的速度在下降
    或者说我感觉大家的想法
    很多的时候是有点像没有
    那种你说出来
    我我压根就没有想到的这种想法
    好多时候在这种越来越少了
    你指的是
    比如说大家都开始认同
    强化学习的方式是
    是这一点
    我自己一点粗浅的理解
    这次我反而觉得
    这个强化学习
    是被大家过度提到的一个东西
    当然一会我们可以再说这个细节
    但是从DeepSeek这次的进展
    我认为虽然这个强化学习
    在这里面占了很大的一个比重
    但是在我看来
    其实是基础模型本身的能力
    这个实际上是很强的
    你说V3其实已经是一个很强的模型了
    对我觉得V3是一个
    本身它的基础能力是不错的
    为什么呢
    因为在如果你仔细看他的这个文章
    里面有一个数字
    你可以看到
    在R1Zero没有进行强化学习之前呢
    生成100条
    它的成功率如果没记错的话
    也已经是在10%左右了
    这是一个非常非常显著的一个性能

    4o是多少
    4o的话
    我印象中是最后到了七八十吧
    但是呢基本的一个概念就是说
    他在前期ten percent是一个非常高的number
    在我看来他用了一个GRPO的方法
    本身的这个policy gradient
    这个方法呢
    在我看来
    我我的理解是
    这也算是一个比较粗糙的一个模型
    就可以认为
    那后来在网上有
    我看到有小伙伴说PPO也可以
    就是其他的RL的方法也可以
    那么我觉得如果要是这样的话
    那其实最主要的这个进展
    我认为是在这个基础模型的前期
    他已经达到了一个ten percent
    我觉得这个是非常好的一个性能了
    当模型的基础能力
    达到一定水平之后呢
    你可以
    通过一个这样类似于Search的方法
    能够自我进行提升
    如果你可以找到一个比较方便的
    一个reward的话
    就是这种学习的奖励函数的话
    那你就可以实现自我的提升
    所以
    我觉得这个是一个蛮好的一个message
    但是我觉得
    反而强化学习
    在这里面的地位是次要的
    所以我总结你的观点就是
    你觉得DeepSeek之所以好
    本质上还是因为V3的表现非常惊艳
    V3的表现经验其实是他们
    比如说用MOE的各种方式
    去让这个基础模型
    它的整体的性能更好
    然后R1
    只是说
    它在这个基础模型之上的一次升级
    但是你觉得V3比R1跟R1Zero更重要
    我觉得他们都有一些重要的点
    V3呢里边的重要的点的话
    我认为基本上都在
    和model架构的efficiency上的提升
    我觉得在V3里面的话
    有两个比较重要的工作嘛
    就是一个是MOE
    以前的话
    你会发现不同的Expertt
    它的load balance做的不太好
    所以
    当你把它分散到不同的节点上的话
    它的load balance会有问题
    所以他们在这一点上
    做了一个load balance的优化
    同时呢它在Attention的这个layer的话
    它要节省这个KV cache
    其实也是在提高这个架构的efficiency
    就是它的性能吧
    这两点作为它的核心的创新
    然后使得它在一个600多B的
    一个Megatron级别的这种大模型上
    然后它的基础模型的表现其实已经挺
    不错的了
    那么这次DeepSeek R1Zero的时候呢
    他们其实做的第一件事情就是说
    我先设计一个非常简单
    直观的奖励函数
    那管它叫做rule based这种奖励函数
    对吧然后基本上就我刚才说的
    你要保证你回答的这个数学题
    它要绝对正确
    你的回答格式也要绝对正确
    然后呢他一个基本想法
    就是说我就用DeepSeek V3的方法呢
    每次你问我一个问题的时候
    我回答他100条
    然后我再从这100条里边去寻找
    那些增强这些回答对的回答的比重
    就是实际上它绕过了reinforcement learning
    我认为就是强化学习里边
    最难的一个问题
    就是稀疏的奖励
    就比如说我回答100条
    回答1万条他都不对
    那么我其实就没有办法去提升了
    因为我根本就没有一个学习的方向
    因为所有的时候都是错的
    对吧反而是说
    如果我做的这个任务
    已经有一定的成功率了
    我加强这些成功率的这些部分
    我觉得这件事情
    就使它从一个稀疏的奖励
    变成了一个比较稠密的奖励
    同时我也就不用再用去搭桥去建模
    去学中间的一些奖励的函数了
    所以我感觉就说
    这里边是一个
    他的借助V3的基础的能力
    有一个挺大的提升
    同时呢在R1Zero里面告诉我们
    如果一个模型的基础能力已经不错了
    那么我是有可能通过这个模型
    自我进行提升的
    其实这种思路和model predictive control
    和世界模型啊一些想法
    其实是有很多的相似之处的
    只不过是
    我现在在这里
    解决了一个最简单的一个问题
    那么第二个
    我觉得看似是一个显而易见
    但是这次也产生了很大影响力的
    一个结果呢
    就是说我可以先训一个这样
    600多B的一个大模型
    然后我让他用自启发的方式对吧他
    因为他可以回答100次
    然后用Bootstrap的方法
    逐渐提高这个能力
    从原来10%
    可能后面提到百分之七八十
    用这样的一个方式呢
    我先学一个大模型
    然后我就可以用大模型去教小模型
    然后
    他们后面做了一个非常有意思的实验
    就是说在Qwen上面做了到1.5B
    一直到三十几B
    然后这样的模型
    他们都做了这样的一个distillation
    蒸馏学习
    你用大模型学出来的
    这些reasoning和planning的能力
    你可以来教这些小模型
    提升他们在相关问题上的表现
    我感觉是一个相对来讲
    比较容易想到的一个点
    因为其实在所有的自我增强的这种
    或者说monopredictive control啊
    model based RL啊等等里边
    面临一个核心问题
    就是说如果你的模型不够好
    那么我在上面提升的话
    我就刚才又说的这些方法
    这种通过search搜索的这种方法
    其实表现都不会太好
    但是你如果用一个大模型
    他的搜索能力可以了
    对吧
    他本身的自己的模型表现好了以后呢
    然后你已经学到的这些能力
    你直接教给小模型
    这个是可以的
    嗯所以我听下来
    觉得DeepSeek整体上它是一个组合
    拳就是它每一步跟它接下来
    比如说它从V3到R1Zero到R1
    每一步它的方向上
    都是有一些策略上的可取之处的
    那你觉得在硅谷的这些公司里面
    比如说像OpenAI Gemini
    或者像Claude.AI
    包括Llama
    他们有去沿用这样一套
    就是train模型的整个的方法吗
    呃我觉得是有的
    就是说很多的这种想法
    其实都是在之前的工作里面都有
    比如我印象中在DeepSeek
    V3的这个模型
    他们用到了Multi head latent tension
    之前应该Meta有一篇工作专门讲的
    就是一个Multi token的一个layer
    其实也有相似的效果
    我应该有很大的借鉴
    然后reasoning和planning的话
    之前也有过很多这个方面的工作了
    当然这个process的这个reward呀
    像这种model base方法呀
    我其实恰恰觉得这次DeepSeek
    R1Zero它们取这个名字
    在一定程度上和这个Alpha Zero有点像
    你们是什么时候
    关注到DeepSeek这家公司的
    以前他们应该就一直在发一些文章
    但是真正特别仔细的关注
    还是最近的事情了
    就是之前一直在V3啊
    V3出来开始
    但之前应该也有一些文章
    他们应该一直在发
    嗯之后呢
    我应该是12月的时候听说的吧
    也是V3
    对V3
    但是当时也没有很注意这件事情
    因为大家都觉得可能美国还是AI领先
    很多国内模型虽然说跑分跑得好
    但是大家也不知道到底是怎么跑的分
    却没有很多心情去关注
    而且尤其对我们就是客户
    如果不提的话
    我们也不会去深入研究这个东西
    但他这个应该是就是微软的那个CEO
    最近发了一个Twitter
    那个发完以后才火起来的
    他其实火了好几波
    我是在2024年的年终
    就不停有人发给我DeepSeek的文章
    其实当时就是还有一个硅谷的媒体
    叫SemiAnalysis
    他们就写了一篇文章
    就是说V2是他们见过的现在最好的
    质量最高的开源模型的文章
    那个时候大概2024年的七八月份有一轮
    然后V3
    我印象中
    最开始是像Andrej Karpathy
    他们几个意见领袖
    在Twitter上说啊
    这个模型很棒
    然后开始把V3带火的
    之后股市的英伟达的价格跌
    其实是在R1出来之后的几天嘛
    我其实是在想
    这个市场它是怎么发生的
    为什么在这个模型出来
    差不多之后的一个多月
    才引发了股市上的连锁反应
    我还是感觉
    这个媒体的报道
    给大家的一个印象是说DeepSeek
    他用了很少的钱做出这样的大模型
    就好像说OpenAI
    你烧了这么多钱
    然后他做的跟你一样
    对对对对对
    第二个印象是说
    其实我觉得整个market是emotional的
    就是很多人
    他可能过来会问我这样问题

    DeepSeek是不是不用英伟达的最好的芯片
    但是我说它背后的资方是幻方
    对吧那我们又知道
    幻方实际上是它是算力的一个大佬
    这个也可能报道
    也会对于不了解幻方的人来讲的话
    对心理上会造成一定的冲击
    所以我认为
    首先训练所花的
    总共的研发的成本是不低的
    第二个事情是我认为啊
    如果没有搞错的话
    就是
    也确实用到了英伟达最好的一类芯片
    那么从这样的两点出发来讲的话
    我其实觉得
    市场是没有必要因此而恐慌
    对吧就是说啊
    英伟达的芯片不再被需要了
    随便出来一个小的团队
    就可以花几百万美金来挑战OpenAI了
    如果公众是这样的印象
    造成这样的恐慌的话
    我觉得是没有必要

    我其实是想问一下John
    就是因为你是做GPU的
    就是你觉得R1出来
    对英伟达它到底是利好还是利空
    就为什么它的股价会跌
    这应该是一把双刃剑
    就是有利好也有利空
    利好这边就很明显了
    就是DeepSeek出来
    其实它是给了人们很多的想象空间
    以前很多人都已经放弃做这种AI model啊什么
    现在它其实是属于给了大家很多信心
    让更多的这个初创出来
    可以去试探更多的
    这种application的
    应用层面的一些possibility
    那如果有更多人做APP的话
    那其实
    这是英伟达最希望看到的一个局面
    就是AI整个行业被盘活
    那大家都需要买更多的卡
    所以这样的话
    其实看起来是对英伟达更好的
    那更差的这一面就是英伟达的溢价
    确实是受到了一些冲击
    但是这里头
    可能很多人刚开始是以为
    它的壁垒被冲倒了
    所以一下就跌了特别多
    但是其实啊
    就我感觉也不是说壁垒被冲倒了
    没有那么严重
    壁垒是什么
    就是英伟达
    它其实是有两个最大的壁垒
    一个是它Infiniband 芯片互联
    然后另一个是CUDA
    是它那整个一套调用GPU的这个系统
    就是他跟AMD啊这些其他芯片公司
    其实已经不是在一个层面在竞争的
    因为其他的人都是在争
    就是我单张卡我的性能怎么样
    但英伟达其实争的是
    就我互联的这个技术怎么样
    然后我的软件调用软件
    Ecosystem的这个维持是怎么样的
    所以英伟达真正是这两个壁垒
    那这两个壁垒
    DeepSeek其实都有稍微冲击到它的溢价
    但并没有把它的壁垒给冲垮
    就是怎么冲到他议价呢
    刚才一位说他那个MOE做的优化

  • E178_智能眼镜大战CES_靠AI不如产品硬(4)

    对有一套文化
    有有经验的师傅
    可以带年轻的徒弟
    公司内部鼓励年轻的人提出新的想法
    创新性的去解决问题
    大家非常讨厌
    你去抄袭别人想要的方案
    因为所有的类比借鉴
    都不是第一性解决问题的方法
    OK理解
    我们再把话题收回到CES
    其实今天我们俩录CES这期节目
    就今年我是没有去CES的
    我发现很奇怪
    就是我每次没有去CES
    然后非常想了解发生了什么
    因为看见大家都在讨论嘛
    我就会想要去录一期CES的播客
    但是我自己去CES
    比如说去年我其实是有去CES的
    但是最终
    我们其实播客
    是没有出跟CES相关的节目的
    原因是我仔细想了一下
    我自己对CES我是有一种疲惫感的
    这种疲惫感是每次去了大家都会问
    说啊你有看到什么好玩的产品
    眼前一亮的产品
    非常有价值的公司
    然后我自己的答案就是
    确实有那么一些
    就是让我觉得OK
    它很出彩
    但是它其实没有那么让我兴奋
    跟它有惊艳感
    我仔细想了一下这个原因
    我觉得CES上去的这些公司
    它的营销的比重会非常大
    然后它为了突出它的新功能
    技术上的产品特色
    它反而会忽略了消费者的需求
    就简单来说
    我觉得CES更像是一个营销的会
    当我们在真正关注产品创新
    你所有的产品细节
    做的是不是好的时候
    就是我在CES上的体会是非常粗糙的
    因为你去年去了
    今年也去了
    就是你自己在那个活动上
    你真实的感受是什么样的
    我真实的感受首先是这样子的
    就是CES其实对于很多创业公司
    尤其是早期公司
    是获得曝光
    甚至是获得融资
    获得市场关注的很重要的一个渠道
    尤其是很多中国背景的公司
    可能平时也没有长时间
    能够泡在海外市场跟海外的消费者
    海外的渠道
    海外的媒体进行这种深度的交流
    所以很多创业公司
    本来就是把CES当做一个他们宣发
    触达的一个途径之一
    那这样子带来的一个情况就是说
    当这个市场很热
    就用消费型的硬件创业
    很热的时候
    会有很多创业公司带着各种粗糙的
    或者是博眼球的想法来到这个市场
    我举个例子
    比如说去年
    应该有蛮多的
    中国背景的人形机器人创业公司
    在CES上面进行展示
    其实到今年你会发现
    人形机器人公司的展台的数量
    可能是降低了
    但是真正还在展览的公司
    比如说像宇树
    比如说像云深处
    他们的实力和他们的产品成熟度
    其实是得到了更大的增强
    也就是那些可能希望博一些热点
    蹭一些热点
    特别初期的公司
    其实已经逐渐被市场淘汰了
    他们已经不会再来参加第二次CES了
    那还有一个投资人
    跟我讲到同一个事情
    也是非常relevant的
    他说在去年CES的时候
    有非常多的创业公司
    在做割草机器人和泳池清洁机器人
    让大家的感受就是
    好像这个领域里面创业非常热
    一下子出现了十几家公司
    然后到了今年
    大家发现
    可能割草机和泳池清洗机器人
    来参展的厂商明显变少了
    这背后意味着什么
    其实这个answer
    因为我们投过一些这个领域的公司
    我们知道这背后的结果是非常简单的
    是因为那些真正有销量
    有品牌的公司已经崛起了
    那留下来继续参展的一些头部公司
    无论是从产品规模能力来讲
    其实都上了蛮大一个台阶
    今年在Venetian hall的那个二楼
    我觉得中国的几个厂商
    不管是扫地机器人的厂商
    割草机器人的厂商
    还是泳池清洁机器人的厂商
    几个头部品牌的展台和规模
    是显著比去年增加了
    所以同样的事情
    我觉得今年的AI眼镜也好
    智能眼镜也好
    是同样的story
    我觉到明年的时候
    很多公司会消失不见
    但是那些真正留下来的公司
    可能会有更好的产品
    所以对我来说
    可能CES是一个
    获得每年创新热点的一个渠道
    但是你很难说靠这个渠道来告诉你
    哪些公司更值得投资
    但是他能够给你指引一些
    未来一两年可能发生的一些趋势
    我觉得你不用去你也知道啊
    哈哈哈
    可以看到
    市场上对这些公司的一个反应吧
    我觉得CES里面比较明显的一个结果
    我们的确也从投资端
    从业务端看到一个情况
    就是中国的科技产品在越来越主流
    越来越掌握科技产品的定价权
    我们看到更多的这些中国公司
    其实在各自的品类都占据了高端
    或者是高溢价的这个价格段
    包括像石头、星迈、库犸
    我觉得一系列的公司
    在他们各自品类里面
    其实都是卖的比可能市场的peers
    更加的贵
    然后有更高的premium margin的一个状态
    嗯我其实还在想我刚刚的那个问题
    就是
    为什么我会产生比较强烈的疲倦感
    有一个原因
    可能是因为整个我们的播客
    他是非常关注前沿技术的创新的
    就是我们想去报导
    那些非常有颠覆性创新的公司
    但是通常来说一个前沿技术
    包括我们今天说的生成式AI
    你让它真正的去跟一个消费品结合
    是很难的
    因为消费品要卖给ToC的消费者
    更需要的是
    一个相对已经成熟了的科技

    你这个观察是很fair的
    如果从前沿性来讲
    可能大家会去关注人形机器人
    会去关注一些具身智能的最新的变化
    算法上的一些结构
    一些突破一些概念
    但是你从一个消费产品
    消费电子的角度
    真正要卖给用户
    大概率是一个很成熟的技术
    很成熟的方案
    然后以尽量低的成本
    尽量快的方式能够触达到消费者那里
    这是为什么
    可能从扫地机身上面增加一个手臂
    对于扫地机来说
    已经是个巨大的突破和创新
    但是可能站在一个前沿人形机器人
    或者通用机器人的研究的角度来讲
    这是一个非常小的一个尝试
    是的是的
    好的我觉得今天聊的挺开心的
    好谢谢谢谢
    那这就是我们今天的节目
    如果大家对CES
    或者智能硬件有什么样的想法
    欢迎给我们写评论写留言
    那如果听到这里
    还没有关注我们的播客
    大家可以通过小宇宙苹果播客Spotify
    还有YouTube上搜索硅谷101播客
    来关注到我们
    感谢大家的收听谢谢

  • E178_智能眼镜大战CES_靠AI不如产品硬(3)

    就是你做Google Glass的那个时间
    其实
    谷歌是第一个真正做出来一款纯的
    非常智能的AI眼镜的厂商嘛
    我觉得Google遇到的问题
    跟Meta遇到的问题是类似的
    两家公司
    作为盈利性非常好的互联网公司
    它的核心能力和核心组织
    不是围绕着
    打造一个消费硬件而设计的
    比较残酷的说
    整个Meta的Reality Lab
    就是整个Oculus这个division
    VR这个division的经营效率和研发效率
    是非常低的
    相比一个无论是像苹果还是像大疆
    或者像特斯拉
    这样的硬件产品公司而言
    我认为在Google遇到的同样的问题
    就是因为
    硬件其实是对于成本效率生产的节奏
    研发的节奏有明确的要求
    我很难想象
    在Google能够在这个领域迭代这么快
    中国的厂商竞争力如此之强的基础上
    谷歌能够独立的做出一款
    获得几款非常好的产品
    且还有性能和价格的优势
    我觉得这点是很困难的
    包括Meta Rayban也是同样的问题
    Meta Rayban估计
    每副眼镜给集团带来的亏损
    应该是不低的
    以目前的研发和供应链的效率
    所以我很难想象
    就变成一个独立的很大的生意
    未来有盈利的可能吗
    我觉得Google的策略跟安卓系统一样
    跟Pixel手机一样
    这从来不是一个盈利中心
    Pixel手机对于Google来说
    是要推动Google的AI生态的成立和普及
    如果Google不自己带头去做这个事情
    很多厂商是不愿意follow的
    我觉得AR眼镜可能会遇到同样的问题
    Google需要展示出来
    它的AI的能力和云的能力
    和操作系统能力
    怎么样可以快速的赋能一个智能眼镜
    所以10年前我们做Google Glass的时候
    其实很长的目标
    是把它做成一个样板工程
    如果这个样板成功的话
    我们才能够吸引10家
    100家意念厂商来进入这个生态
    就像后面安卓手机的生态的繁荣一样
    所以我觉得在这个生态的早期
    Google是需要做一定的样板项目
    但是它的终极的目标
    一定不是
    自己做成一个盈利的business unit
    或者说我对于Google也好
    Mate也好这样的互联网公司把这个devision做到盈利
    我是非常悲观的
    嗯了解
    那你觉得今年在整个CES上
    你还有看到什么比较AI native的智能硬件产品吗
    我觉得今年看到非常明显的一个爆发
    是陪伴型机器人的爆发
    有非常多的厂商
    国内和海外推出了形态各异
    用户价值有巨大差异的
    陪伴型的机型产品
    无论是拟人的还是仿生的
    还是以特定人群
    或者说特定的场景为导向的产品
    不可以举几个例子
    比如说你看见有什么比较陪伴型的
    让你眼前一亮的产品
    其实我理解
    我们
    如果能跟一个智能音箱去对话的话
    它可能都是一个陪伴类的产品
    比如这次我们看到一款产品
    我们也关注很久的
    一款桌面陪伴型机器人
    叫做Looi
    它的形态像一个可以移动的手机支架
    然后你可以把一个iPhone
    贴在这个支架上面
    它就变成一个桌面
    可以移动的小机器人
    然后它的场景就是在一个桌面的场景
    那这就包含了可能你工作学习
    私人独处的一个环境
    对于这样的一个产品
    我们发现
    一个用户跟这个机身
    产品的交互的习惯
    或者预期
    会发生变化
    如果是一个有多人的公共的场景
    和一个私人的一对一的场景
    用户其实会调动这个机器人
    或者跟这个机器人交互的主动性
    和频次会有显著的区别
    我觉得这背后其实说明呢
    它不是一个像智能音箱一样的
    一个简单的可以被唤醒
    或者说实施具体任务的一个
    效率性的工具
    其实之前日本有一家公司
    做的陪伴型机器人Lovebot
    售价非常贵
    他们今年应该没有来CES
    但是这个产品
    其实在一定程度上
    论证了它的产品定位
    或者产品价值
    是有一群用户高度的认可和接纳
    它是一个40厘米高
    像一个蛋形的移动机器人
    可以在地面移动
    它也可以被抱起来
    机器人外面有不同的服装和服饰
    机器人上面有非常多的传感器
    也有可以交互的表情和肢体动作
    这个产品其实很有意思
    就是对他特别喜爱
    或者说特别有依赖感的
    大量的用户群是40岁以上的女性
    我觉这样的产品不是一个功能性导向
    或者说效率性导向的智能音箱
    可以替代的
    嗯就是它的拟人化
    服饰啊表情啊这些
    可能就是一个定位
    就非常陪伴类的产品
    软件怎么样
    真的够智能吗
    它不需要智能
    比如像这样的产品
    它是不能说话的
    它一定要跳出
    我们对于它
    作为一个拟人化产品的预设
    它的对标可能是一个小猫小狗
    这样的宠物型的产品
    它要萌

    其实这种产品
    我还是把它定义成一种智能潮玩
    和智能硬件的一种结合
    智能潮玩包括像手办
    它给用户带来的情绪价值
    可能跟这个IP跟内容相关
    那对于一个情绪型的产品
    其实它的萌
    它的毛绒感
    动态形态的这种变化
    其实trigger用户的这种情感反应
    是很神奇的一个效果
    这种产品可能只有当第一手去体验
    去感受的时候才能够
    感觉到这种产品的神奇之处

    你觉得这种产品
    跟AI的关系是怎么样的
    AI在里面它是一个强驱动因素
    就它会带来整个产品
    比如说销量
    从一个不太好用
    变成一个非常好用的产品
    还是说其实AI在中间是无关紧要的
    它的整个产品设计才是最重要的
    我认为两个都非常重要
    产品设计就像动画设计一样
    我这里举一个例子啊
    我们看过迪士尼出品的机器人总动员
    里面有一个非常可爱的机器人叫Wall·E
    这个机器人的设计
    从它的运动神态
    外观和互动的方式来讲
    他都有一套非常独特的角色定位
    和角色感觉
    其实Wall·E在整个电影里面
    是没有开口说话的
    但是他有非常多的姿态
    表情和情绪的表达
    是非常吸引用户的
    形成了很强烈的情感上的冲击
    或者连接
    如果我们以电影里出现的
    Wall·E作为一个陪伴型机器人
    一种方向的例子来看的话
    要实现这样一个产品真正打动消费者
    他一定需要非常巧妙的产品结构外观
    工业上的设计
    这个产品如果他真正实体化
    它的可量产性耐久性运动性的体现
    一定是非常关键的
    这个会是这个公司能不能量产
    能不能发布的很重要的一个要素
    但同时
    对于用户期望跟他产生的这种互动
    能不能得到相应的响应
    能不能有比较智能的交互或者说反馈
    我觉得也非常的关键
    这背后AI处理的能力可能非常的多
    为他需要声音视频
    环境空间的各种感知
    可能对于不同的用户
    他的身份
    他的语音他的情绪
    甚至整个外部的环境
    空间的环境有认知
    才能够输出一些非常简易
    但是恰到好处的反馈
    所以我认为这里面
    其实产品需要创新的难度是很大的
    这是为什么
    在这个品类里面
    我们看到非常多的公司
    在进行早期的尝试
    但是很难说
    哪一家公司找到一个清晰的winning formula
    这种类型的产品
    跟效率导向跟功能导向产品很不一样
    比如说清洁机器人或者说割草机器人
    他们对于用户价值
    或者用户需求的定义会更加的清晰
    优化的方向更容易寻找
    但是对于陪伴型的机器人
    因为他需要解决的用户的痛点
    或者陪伴的人群
    甚至是使用的场景都是不一样的
    所以这样的产品
    我就需要更多的心思理解
    就是AI其实它也赋予智能
    但是它赋予的智能不是智力超群
    而是可能是情商超群
    或者它能赋予的这个语气词啊表情啊
    就它要调的方式不一样

    然后我们刚刚其实说到了
    很多创业公司的产品
    你觉得这次的CES
    从大公司的维度
    你有没有看到一些有趣的
    整个产业在发生变化的一些新的趋势
    今年大公司我可能关注比较多的
    还是英伟达的几个重点的发布
    包括Jensen Huang黄仁勋的演讲
    和他们宣布的几款新的产品
    有一款跟机器人相关的
    Cosmos物理AI大模型
    我觉这个产品
    可能对于未来进行这种自动驾驶也好
    移动机器人也好的开发
    或者说训练会有蛮大帮助
    我觉得
    英伟达在智能机器人整个生态里面
    是占据了一个非常好的生态位
    他们非常注意开发工具链
    而不是训练模型
    本身
    就是他们希望提供好的工具和能力
    帮助他的用户去训练更多更好的模型
    从而采购更多英伟达的GPU
    英伟达的处理器
    而不是自己去训练一个大的模型
    给所有的人使用
    所以这次看到英伟达在工具册上面
    有更多的发布
    我觉得会进一步的帮助
    可能未来一年到两年
    更多智能型的机器人的落地
    之前英伟达推出的Isaac Sim
    是一个机器人的仿真训练环境
    虽然很多学者和用户啊
    也非常抱怨
    说这个产品的成熟度啊易用性啊
    都并不是很好
    但实际上这种工具的出现
    是过去两年
    非常多足式机器人
    效果进步的最根本的原因
    因为有了好的训练仿真环境
    让国内外更多的机器人的学者
    可以快速的利用
    强化学习
    利用仿真的这个能力训练出好的祖师
    机器人的控制算法
    或者说控制协议的最重要的原因
    所以整个英伟达
    它的布局还是很聪明的
    它其实是给所有的创业公司提供工具
    对我觉这个比他单纯的卖模型
    或者卖处理器来说更加重要
    当它的工具链
    成为所有公司开发新型的机器人产品
    新型的智能硬件
    必须使用的工具的时候
    我认为它的处理器和GPU的生意
    就会有很好的支撑
    嗯对
    其实刚刚我们也谈
    到了非常多的智能硬件产品啊
    然后我们也提到了
    像英伟达这样的公司
    它会帮大家把底层的东西
    比如说你的整个的工具链
    包括到芯片层怎么组合
    软件平台就类似于这样子的一部分
    全部都搭好
    同时呢我们在聊到智能眼镜的时候
    我们也提到了
    它很大程度上也依赖于整个供应链
    它的提升跟创新
    那你因为也做很多智能硬件的投资
    然后我知道你也投了很多好的企业
    你怎么样去判断一个人
    他能不能做成一款好的智能硬件产品
    对创业者的判断对吧
    对对对
    我觉得一个好的智能硬件创始人
    一定得具有几个基础的能力
    首先他必须非常关注用户的真实需求
    而不是自己的幻想
    所以要求他有很好的用户同理心
    不能有太大的ego
    我认为这个无论是硬件产品
    还是软件产品
    都是产品经理必备的一个能力
    但是可能对于硬件产品来说
    它的代价更高
    因为一旦你不能清晰地定义用户需求
    寻找用户的痛点
    那么对硬件产品来说
    它迭代的代价和成本会更高
    软件可以不停的升级迭代
    但是硬件你整个供应链就要重塑
    是的所以
    我们看到一些
    可能不太称职的硬件产品经理
    当他在描述一些功能和需求
    或者说技术实现的时候
    我觉他很多时候
    没有真正代入一个用户的场景
    或者说用户的一个确切的需求上
    而这种代价
    这种验证周期是非常长的
    可能在他把这个样机做到一个可以
    交付的状态之前
    其实他自己很难去思辨这个过程
    所以导致这样的公司
    其实失败率特别高
    当然
    今天有一些办法来降低验证的周期
    或者说难度
    比如说做快速
    做一些MPV
    或者是通过一些众筹
    通过一些用户测试来得到验证
    MPV是什么
    一个Minimum Viable Product
    就是把一些核心的功能核心的卖点
    以一个Mock up或者一个3D打印的模型
    或者是一个简易的Demo得到呈现
    我觉对于硬件产品来说
    能够快速的做出一个MVP
    可能比软件产品来说更加重要
    因为它一旦大的方向跟需求
    没有找对的话
    它的成功概率就非常低了
    然后从创始人的角度
    我们非常关注一个好的硬件创业者
    他是否有第一性思考的能力
    能不能对于技术工程有非常好的拆解
    有好的空间结构
    产品的品味
    也包含他对这个产品的美感
    和整体感觉的判断
    我觉这里面
    其实对于创始人的能力和天赋
    还是提出了蛮高的要求的
    当然除此之外
    一个硬件产品要真正从设计到生产
    到量产到销售
    有非常长的环节
    我觉得一个好的创始人
    一定也是可以吸收
    一个全站能力的团队
    有好的领导跟管理能力
    这也是非常重要
    可能到最后呢
    我就做好一个产品
    跟做好一个公司可能还不太一样
    我们见到一些非常有天赋的硬件
    产品经理
    可能他们能够把一款产品做成功
    一款产品就能做到10个亿的收入
    但如果他没有好的管
    理能力没有持续研发能力
    他的公司大概率也不能成功
    消费硬件或者智能硬件
    整体来说是一个竞争非常激烈
    迭代非常快的行业
    如果这个团队不能持续的成长
    我就会很快的被竞争所淘汰

    听上去挺不容易的
    我总结一下
    你其实是需要天才级的产品经理
    加上他同时一直在保持学习跟迭代
    对我们其实大家都喜欢天才对吧
    但是天才也有很多代价
    就是天才往往会非常多的短板
    非常多的盲区
    所以我们发现
    对于一个长链条的硬件产品
    怎么样补足它的短板
    怎么样降低它的盲区是非常关键的

    在你过往的投资中跟你见过的人中
    你觉得谁是符合这样定义的人
    天才的硬件产品经理
    我觉得Bambu Lab
    拓竹科技的陶冶是一个很好的例子
    当年他在大疆的时候
    就完整的参与了
    包括像Mavic和早期的动力系统
    一系列的核心的研发跟产品的定义
    也有一个成建制的团队
    跟着他一起做3D打印机的创业
    我觉他在技术的深度
    对于技术的洞察
    工程能力的把握上面
    都有非常好的能力跟品位
    我觉得这样的创始人
    在市场上是非常稀缺的
    嗯能不能讲一下他具体好在哪里
    我觉得市场上
    做3D打印的机器的公司有很多
    为什么
    就是你觉得他是一个天才级的人
    就他们是一群
    或者说整个大疆出来的公司
    我们投了好几个大疆出来的公司
    大疆是创始人
    是汪滔个人意志的一个外化
    他在早年做无人机做飞控的时候
    就是一个非常追求技术
    卓越的一个风格
    然后他把这个文化
    是影响和蔓延到了这个团队
    我们看到包括像陶冶
    包括像我们投的微机动
    就他们在11年到15年左右加入公司的
    这群人
    其实是蛮受到公司的早期文化的影响
    所以大家做这种消费硬件
    整体的这个能力深度
    我觉跟别的公司
    别的创始人差距还是非常明显的
    大家思考问题极度的第一性
    极度的追求更好的结果和性能品质
    这种文化很难在别的公司里面重现
    他们商业上成功
    只是他们能力中的一个结果
    就是为什么拓竹
    能够一年有超过50%的market share
    有这么高的定价力品牌力
    是他们产品竞争力的一个结果
    但是产品竞争力
    本质上是组织能力的一个结果
    我见过中国非常多的科技公司
    我觉得
    真正有能力培养硬件工程师的公司
    是非常少的
    大疆肯定是其中一个
    就是一个应届的理工学生加入大疆
    能够接受的训练和成长
    我觉得在其他很多环境里面
    是实现不了的
    嗯就是
    它有一套做硬件产品的人才的培养体系

  • E178_智能眼镜大战CES_靠AI不如产品硬(2)

    在地毯吸尘的核心功能上
    我认为在过去几年
    以iRobot为例的海外品牌
    其实整个迭代速度是比较慢的
    那中国的几个品牌
    其实一开始是在国内市场
    得到的快速发展
    因为国内市场一开始的时候
    扫地机器人的收入率是很低的
    那随着全局建图
    扫脱一体的机型的普及
    中国市场的渗透率
    带来了一个快速的提升
    可能从不到一两个点
    提升到了接近10个点的水平
    而在国内
    以云鲸为代表的扫拖一体的机器人
    其实解决了中国场景
    拖地的这样一个刚需
    那因为有拖地的需求
    也带来了上下水拖把
    清洁机器人基站的这样一个需求
    所以我觉得
    可能从过去几年的创新方向来讲的话
    国内的这些领先品牌
    首先还是满足的
    国内市场的创新的这个需求
    那么也是随着他们进一步的走向台外
    我认为会逐渐出现更多的
    为海外家庭的这个场景
    进行优化的产品
    今天这方面的定制设计还是比较少的
    嗯对
    我们刚刚其实提到iRobot
    它自己是占有海外市场很多年啊
    其实之前我跟美国的一些律师也聊过
    他们有提到
    为什么
    比如说美国的整个的扫地机器人
    还有iRobot创新的进展这么慢
    就是因为他在早期做这一块的时候
    他其实是为自己的扫地机器人的
    很多技术
    细节的设计
    申请了专利的
    那么中国厂商
    其实他在想要进入海外市场的时候
    他就需要等他的这个专利过期
    或者是打专利的官司
    所以其实是在好几年里面
    海外的产品都是进不来的
    但是反过来看啊
    我确实又觉得
    正是因为这种专利的存在
    它让整个市场的创新
    反而变得更缓慢了
    扫地机目前的核心专利
    对于以科沃斯
    石头追觅为代表的中国厂商的限制
    今天有多强的力度
    还是一个值得讨论的问题
    我知道iRobot的在几年之前
    是起诉过多家中国的扫地机公司的
    但是不包含刚才提到的
    所有的头部品牌
    其实从专利保护的角度讲
    它对于长尾的品牌
    一些代工厂商或者是方案厂商
    其实打击力是更大的
    对于头部的品牌
    因为头部品牌有自身创新的能力
    然后头部品牌也在一些新的功能
    新的结构
    比如说在过去五六年
    广泛出现的一些新的结构
    新的创新上面也申请了大量的专利
    据我了解
    其实包括iRobot
    跟科沃斯和其他一些品牌
    其实是有交叉专利授权的
    所以在今天的角度上讲
    我认为
    在扫地机器人的一些核心专利上面
    对中国厂商的影响力也比较弱
    更关键的还是自身创新的速度
    我认为今天其实以扫地机器人为例
    我们看到一个明显的现象是
    中国厂商的创新速度和迭代速度
    可以达到海外厂商的多倍
    甚至10倍以上
    当他有这样的一个迭代
    和创新速度的差距的时候
    我觉得海外厂商的创新法力
    几乎是一个必然的过程
    嗯明白
    然后我们刚刚其实是从扫地机器人
    要不要加可以剪袜子的手臂
    聊到了整个扫地机器人的创新
    那今年其实还有一个非常核心的创新
    就是AI眼镜这块
    你可不可以跟大家分析一下
    今年其实我们看到
    有很多的智能眼镜的公司参展
    根据他们的产品侧重点
    你会怎么去分类
    跟定义这些智能眼镜公司
    因为我们抛开细节来看
    每一家公司
    它虽然是做的名字都是一个东西
    但是其实非常不一样
    就是你觉得
    在这样的一个非常拥挤的赛道里面
    可能几百家公司在做
    最终谁能跑出来
    就是能不能讲一下
    你在CES的整个的见闻跟感受

    AI眼镜是这一届CES非常火的一个领域
    简单的说大家可以分为几个类别
    一个是以摄影为主打的形态
    比较类似Meta Rayban这样的产品
    以一个眼镜或者太阳镜的一个形态
    增加了摄影和一定的处理的能力
    第二种产品是具有AR显示能力的产品
    这里面包括像Rockid Xreal
    还有其他一些AR眼镜品牌
    这里面可能主打的是一些空间计算
    包括观影和游戏的需求
    还有些新的品牌
    在做一些新的显示方面的尝试
    比如说这次
    也看到了国内一个品牌叫Gyges Labs
    他们推出的Halliday AR眼镜是比较创新的
    有一种新的投影的一种方式
    跟传统的AR眼镜
    或者说这种摄影眼镜有不一样的
    用户体验
    或者说嗯
    显示设计
    整体感觉
    之所以会出现这么多的AR眼镜公司
    或者智能眼镜公司
    我觉得底层还是因为
    整个供应链的成熟
    以及中国的无论是方案公司
    还是代工公司
    生产制造公司的能力的外溢
    让一个有产品想法有设计想法的公司
    可以非常快速的
    实现一个智能眼镜的设计和交付
    所以我们看到
    在现场可能有实体产品展示的
    可能至少有20家智能眼镜公司
    绝大部分都是中国的品牌
    然后我们也看到了
    因为一些显示方案结构方案的趋同
    导致
    可能在产品的设计和功能定义上面
    也是有比较大的相似性
    嗯这么多眼镜
    你觉得你看好哪个方向
    你刚刚提到了
    你其实是把Meta Rayban
    你没有把它定位成AI眼镜啊
    你把它定位成一个摄影赛道的
    就是它主打的功能其实还是拍照
    或者拍视频
    另外你的一个定位是AR眼镜
    你怎么去看
    这些眼镜的哪个路径是对的
    它能成就是你怎么去评判
    我觉得今天的智能眼镜
    AI可能都是辅助功能
    可能从今天的硬件成熟度
    和产品成熟度来讲的话
    无论是摄影还是这个观影
    可能是用户今天长时间使用
    这样的产品
    和长时间交互这样产品的核心痛点
    所以呢
    从今天的产品成熟度来讲的话
    把这些核心的feature做好
    可能是用户持续购买
    和使用这样产品的原因
    我觉得可能今天还不太清晰的是
    因为很多产品的AI能力
    会依附于一个公开的
    或者是合作的大模型的能力
    那怎么把真正的AI能力
    多模态或者说大于模型能力
    跟产品进行很好的结合
    我觉得还没有看到特别清晰的方案
    我看到蛮多的尝试
    但是很难说今天作为一个眼镜品牌
    谁会在这个方向里面
    获得压倒性的优势
    然后对于AR的眼镜来看的话
    可以明显看到今年大家显示的效果
    不管是亮度,FOV和重量
    这几个关键的指标
    我觉都有不小的提升
    但是也看到像这些能力上面
    其实对于整个供应链的依赖
    还是蛮强的
    所以对于独立的品牌公司
    怎么在这里面获得压倒性的产品优势
    我觉得还不是一个很清晰的一个问题
    嗯所以作为投资人
    你会投智能眼镜这个赛道吗
    目前我还没有在这个领域面
    进行直接的投资
    如果我要投资的话
    可能会关注上游核心供应链
    一些创新型的方向和技术
    如果这里面
    能形成比较高的集中度的话
    你觉得可能存在的技术壁垒是什么
    就是上游供应链
    它怎么样
    才能成为一个非常显著的优势
    比如我举个例子电池啊
    这个问题挺难回答的
    我自己觉得没有看到特别明显的优势
    不管是显示的方案还是光学的结构
    你觉得Orion算是
    一个明显的优势吗
    就是Meta
    今年他们connect大会
    发布的那一款AR眼镜
    我觉得他们在显示跟光学上的突破
    还是蛮大的
    我觉得Meta现在做AR眼镜
    包括Apple做AR眼镜
    可能今天对于两个巨头公司来说
    更关键的是突破性能的上限
    他们也是比较愿意有这个预算
    去拉动国内的这些供应链厂商
    跟他们配合
    但是这些结构
    或者说这些方案很多并不是独家的
    一旦就供应链的能力上来了
    其实是可能赋能非常多的第三方公司
    品牌的这是为什么
    现在市场一下子出现这么多Meta Rayban的copycat
    因为它的一些方案和设计
    其实一旦Meta成型过后
    其实别的公司follow一个方案
    是非常快的
    我觉今天核心问题
    从VR眼镜的角度来讲的话
    还没有一个特别solid的
    非常刚需的user case
    让这些产品有比较大的出货量
    我觉得在VR时代
    Oculus VR在游戏
    在单人娱乐这个场景是有PMF的
    所以它有一定的出货量
    但我觉得在AR眼镜今天
    不管是Vision Pro还是Oculus的尝试
    Meta的尝试
    我觉得还没有达到
    消费者一定要购买的这样一个临界点
    Meta Rayban是一个好的example
    就是在两三百美元的价格
    作为一个摄影眼镜
    带有一定的AI交互和语音能力
    它可以达到部分用户长期佩戴
    长期使用的临界点
    但我觉得今天的AR眼镜还没有到这一点
    然后当这一点实现的时候
    一个创业公司
    怎么持续获得它的领先优势
    我觉得是一个蛮大的question mark嗯
    对我觉得你说的这点非常有道理
    就是之前
    其实我们有做过
    跟Meta Rayban相关的播客
    他们的产品经理就觉得
    首先Meta Rayban
    我们把它定位成一款AI的智能眼镜
    不如说把它定位成一款时尚单品
    就是首先它是一款需要你佩戴
    非常舒服的眼镜
    就这个里面挑战就很多
    比如说欧洲人亚洲人
    他的这个脸型是不一样的
    眼的间距
    包括你鼻梁的高窄都是不一样的
    就是你怎么样把它设计的舒适
    这里面就有门槛
    同时它的外观戴上去是不是时尚
    你的SKU品类的分类
    包括Rayban在过去的销售体系里面
    建立的整个的销售的网络
    所有的这一切都是非常重要的
    所以其实我是看到你说智能这一块
    包括造这些眼镜的这一块供应链
    它的壁垒是很容易打通的
    但是我看到的反而是在传统眼镜
    因为我们说智能眼镜
    它首先是一款眼镜
    大家做好一款眼镜这个事情
    其实本身就是有壁垒的
    因为你做一个ToB的解决方案
    跟一个消费者真正愿意掏钱出来买了
    还觉得值
    还会推荐给身边的人的
    这样的一个产品逻辑是完全不一样的
    对所以你问我
    有没有智能眼镜或者AI眼镜
    从一个创业或者投资的角度值得关注
    或者是特别看好的
    我觉这就是一个很难回答的问题
    因为有可能这个方向的特点
    和这种产品的特点
    它对于创业公司来说
    本身就没有那么合适
    或者说
    创业公司作为一个单点的产品创新
    或者一两个核心卖点的产品创新
    对于支撑整个商业上的成功是不够的
    无论是从用户价值的角度
    还是从商业壁垒的角度
    可能都不够
    如果
    它不是一个特别好的创业公司的机会
    那大概率
    也不是一个好的风险投资的机会

    理解
    然后它可能更多的是大公司的机会
    对我一直有个观点
    如果智能眼镜
    或者其他的穿戴设备
    跟智能手机的距离过近
    或者说它的功能和价值的实现
    依附于智能手机本身
    那它大概率的宿命就是
    成为智能手机的一个附件
    而当它
    成为一个智能手机的附件的时候
    绝大部分市场份额
    会被智能手机厂商给获得
    那这里面最好的例子就是真无线耳机
    TWS耳机这里面以苹果的Airpods为代表
    加上三星
    华米OV等中国的智能手机厂商
    这6家品牌
    应该是占据了真无线耳机
    绝大部分的市场份额
    其实对于独立的真无线耳机品牌
    甚至是一些老牌的音频厂商
    像索尼 BOSE
    森海塞尔这些传统耳机厂商的市场
    都会急剧的因为手机厂商的存在
    而得到挤压
    所以智能眼镜很大的一个可能性
    或者很大的一个结局是
    以华为
    小米三星为代表的这种手机厂商
    推出这种高度集成高度一体化的产品
    而侵蚀今天这些独立厂商的市场
    份额所以从这个角度来讲
    我对在这个领域的直接投资
    会有更多的question mark对
    我觉得是非常有价值的思考
    而且从这个耳机的角度来说
    我就是你嘴里
    非常典型的那一部分耳机用户
    就比如说以前可能用森海塞尔的耳机
    然后就直接选择Airpods了
    典型的消费用户就在不停的流失
    当年我在做投资之前啊
    14-16年的时候
    就是在Google Glass的团队里面做glass AR眼镜
    我们当时意识到
    AR眼镜对于手机的依赖
    其实是一个非常束缚性的条件
    所以在那个时候
    我们就希望在AR眼镜上面
    引入Wifi的能力
    这样它可以不通过手机
    直接跟网络建立联系
    那么受限于当时的这个无线技术
    跟电池技术
    我们没有办法在眼睛上面装上蜂窝网
    让它实现不依靠局域网上网的能力
    那我认为今天可能对于智能眼镜来说
    这也是一个同样的问题
    如果智能眼镜的连接性和AI的能力
    都要通过智能手机才能实现的话
    因为我们在眼睛上面没有太多的算力
    也没有太多的电池能力
    那么它必然会变成
    智能手机的一个附属产品
    如果是这样的话
    它独立做成一个新的计算平台
    的可能性
    就很低了
    嗯我理解你说的
    其实上一次
    我们在跟Meta的产品经理聊的时候
    她提到了
    有一些部分
    我没有在播客里面放出来啊
    就比如说她其实提到了
    他们在做这个产品设计的定义环节
    有很大的一个
    难点就是说眼镜里的东西
    你要以什么样的方式传到手机里
    就是你整个的交互怎么设置
    怎么样快
    这里面其实是有还蛮深
    跟蛮大的一套东西的
    对我用过Meta Rayban的产品
    我认为这里面的体验和流程
    还不是特别的丝滑
    是的对
    他们还在探索
    对理想情况
    我希望整个过程是透明的
    就是当我在眼镜上拍摄一个东西
    或者看到一个东西
    它可以非常自然的
    非常无缝的同步到
    无论是手机上还是云上
    然后
    我可以方便进行下一步的分享和操作
    我觉得今天哪怕像这样一个功能
    也没有实现特别顺畅的流程
    其实我看到过一些创新型的AI产品
    在试图解决这方面的问题
    或者说团队在努力思考
    找到这方面的一些解
    嗯对
    你刚刚提到你14年到16年是在Google Glass
    对吗
    Google他们最近也在准备
    他们所有的这个AR Glass
    他们其实跟XREAL就是有合作
    2024年12月份宣布的
    它也会打造一个整个的智能眼镜平台
    但是具体它的产品方向往哪个方向走
    我觉得可能也是
    他们明年会陆续会有一些动作出来
    有可能我觉得站在谷歌的角度
    这肯定是一个不能失去的市场
    谷歌在可穿戴设备上面就有一整套
    比如说智能手表Android Wear的生态
    它赋能了很多智能手表的公司
    推出兼容安卓系统的智能手表
    我认为同样的事情
    Google想在AR眼镜
    或者说智能眼镜上面实现
    只是之前硬件产品的
    成熟度不够高
    导致在这个品类里面
    还没有形成一些比较大量
    和广泛普及的硬件产品
    我认对于谷歌的策略来说
    只有当这个品类的硬件的销量
    和产品的丰富度达到一定程度的时候
    谷歌在这里面
    做一个软件平台型的生态
    才有意义
    或者说
    当这些智能眼镜需要有更强的AI能力
    需要跟智能手机
    跟安卓系统
    有更深入的绑定跟结合的时候
    那Google的优势在模型端在云端
    在操作系统端的优势才能够得到发挥
    所以我认为
    谷歌会一直关注
    和等待这个时机的出现
    但是谷歌大概率不会自己跳下来
    做太多或者是太复杂的眼镜产品
    为什么这个就是我很好奇的
    他们到底是开放一个生态
    还是自己做硬件
    他们是怎么想的
    因为其实谷歌在硬件方向是有积累的

  • E178_智能眼镜大战CES_靠AI不如产品硬(1)

    AI native的硬件对吧
    就是没有AI就没有这个产品
    有一个好的例子是那个PLAUD AI录音笔
    你有买那个产品对吧
    我有买这个产品
    它们的产品形态做的很好
    就是它可以直接贴在手机的背面
    它比较省空间
    就跟我贴一张信用卡一样
    然后它可以录电话
    它有AI总结
    我觉得有总结和没有总结
    对于这个产品
    是完全不一样的产品定义
    但是我买完以后
    我又用回了我10年前买的一支录音笔
    你知道原因是什么吗
    是收音的效果原因吗
    不是是因为我每次用它都没电了
    哦哈哈哈
    欢迎收听硅谷101
    我是泓君
    今天呢我们来聊一聊过去两周
    可以说是非常热的一个话题啊
    就是CES
    我们也请到了大家的老朋友陈哲
    来跟大家一起聊
    哈喽陈哲你好
    嘿大家好
    我是陈哲Peter
    Peter上一次来我们这儿聊天还是在五源
    然后这次我看你的title变成了Alphaist Partners的创始人
    所以也是自己出来做了自己的基金
    是的我在去年底的时候
    成立了一家新的早期投资机构
    叫做Alphaist Partners
    关注海外
    全球华人的AI和机械领域的创业
    也是刚刚开始独立运营

    我知道其实你一直在投智能硬件方向
    非常的有自己的心得跟方法论
    我觉得CES呢
    它又是一个
    相当于是
    汇聚了整个智能硬件的一个场地
    同时因为今年有AI的元素
    所以今年的很多的智能硬件啊
    他们又在跟AI扯上
    关系所以我觉得
    这次你来跟我们聊这个CES的话题
    还是非常非常切合的
    可不可以跟大家分享一下
    这是你第几次参加CES
    今年是我第二次参加CES
    24年1月份的时候第一次来参加了CES
    觉得还是有蛮多有意思的东西跟感受
    所以今年也来了第二趟
    所以你觉得
    今年有哪些你觉得特别好玩的产品吗
    这件事也是很有意思的
    一个展台是深圳松山湖XBotPark
    就是李泽湘老师的
    松山湖的机器人基地
    他们把他们非常多的被投企业
    早期的创业公司一起来参展
    这是今年应该是第一次大规模的
    集体的参展
    我觉得还是一个非常好的信号
    也能看到中国像深圳
    因为产业链供应链的成熟
    新一代的年轻的这种创业者
    在很多产品上面
    就有层出不穷的创意和想法
    有些亮点吧
    比如说有一款很成功的产品
    这次也来参展的是LiberLive
    是那个无弦吉他
    我也买过
    那个产品
    我觉得是一个非常好的消费硬件产品
    但是你说它背后有什么非常先进的AI
    或者非常先进的技术
    可能没有
    但是
    它的确很好的解决了一些用户痛点
    而且基本上是single handed的
    开创的一个品类
    这样的产品
    这样的story其实是CES的亮点
    但是我觉得这个感觉
    可能不是一个基础概念可以描述的
    对我们前线的记者也有提到
    非常多好玩的产品
    让我觉得也是非常有价值的
    就比如说一个红酒的醒酒器
    比如说
    你想让一个红酒醒3个小时到4个小时
    他就可以均匀的
    就是你用那个醒酒器
    醒出你想要的那个时间的红酒
    然后他的口味是跟你的红酒
    在一个比如说敞开的
    跟空气接触的醒酒器里面
    醒出的酒的味道是一样的
    那从这个角度上来说
    我觉得这款产品就还挺吸引我的
    但是你说
    它真的是跟AI特别相关的一些创新吗
    可能也未必

    很多消费硬件是有一定的技术变量
    trigger然后由消费者的这个需求驱动
    然后在具体的一些场景跟功能上面
    实现的价值的替换
    他不一定这个驱动力一定是AI
    当然有可能结合上AI过后
    他会创造一些新的场景跟需求核心
    他解决的关键的痛点可能是更关键的
    比如说像一些AI native的硬件对吧
    就是没有AI就没有这个产品
    有一个好的例子是那个PLAUD AI录音笔
    你有买那个产品对吧
    我有买这个产品
    他们的产品形态做的很好
    就是它可以直接贴在手机的背面
    他比较省空间
    就跟我贴一张信用卡一样
    然后他可以录电话
    是的我觉这个产品从去年来看
    其实是非常成功的
    一个小的中国创业公司
    能够做到的成绩是非常成功的
    他能够卖的原因
    是因为他有一个很好的工业设计
    一个很巧妙的使用方式
    可以贴在这个iPhone后面
    可以实现iPhone的录音
    而且售价也不是很贵
    100多美元
    是一个可以通过短视频直销TikTok直销
    就是有比较直接的用户打动力说服力
    可以销售产品
    但是这个产品为什么今天能够出现
    我觉得更重要的原因
    是因为随着大语言模型的成熟
    ChatGPT能力的成熟
    其实这样一个录音产品
    它打破了传统录音笔
    只能录音和transcribe的这个价值
    它非常重要的一个价值是
    通过连接OpenAI的API
    它可以实现整个录音的summary
    对它有AI总结
    我觉得有总结和没有总结
    对于这个产品是完全不一样的
    产品定义就是在大模型出来之前
    没有总结能力
    那它就是一个普通的录音笔
    它可能有AI Summary的能力
    它可以做transcribe
    但是这样的录音笔
    在之前其实一直很成熟的
    每年可能有两三千万台的销量
    但是很多人录了一两个小时的电话
    他不会去看的
    因为他review的时间是非常长的
    但是有了整理过后
    它的用户价值就得到极大放大
    所以我觉得像这样的产品
    实实际上是真正的
    没有AI就不成立的产品
    或者说没有AI
    就做不到今天这个用户体验的产品
    但这样的产品
    其实我觉得在整个CES
    我们也在密切的关注
    就是有没有更多的这样的品类
    因为AI去赋能的
    你说到这个点特别有意思
    因为我在做播客以前其实是记者们
    然后我其实是录音笔的深度使用者
    是市场上所有的总结类工具
    速记类工具
    包括语音转文字的这种
    字幕类工具的深度使用者
    坦白说刚刚那些功
    能能打动我
    所以这是为什么我买了那支录音笔
    但是我买完以后
    我又用回了我10年前买的一支录音笔
    你知道原因是什么吗
    是收音的效果原因吗
    不是是因为我每次用它
    它都没电了
    哦哈哈哈
    就是关键时刻你拿起要录音
    发现嗯
    没电那还不如我以前拿的
    一个没有任何AI工具的产品
    它的那个电池
    我带着它
    我可能一两个月
    三四个月都不用换电池
    我只用把它放在包里就行了啊
    嗯你这是一个很好的洞察
    就是电量对于这种产品来说
    是非常关键的
    就挺有意思的
    所以我就觉得你说硬件消费
    它真的是一个
    你要非常细微的去洞察每一个消费者
    它细微体验的不同
    对所以它首先是个消费品
    然后才是一个智能设备
    嗯对
    在你看到了CES
    它一个场内
    同时汇聚了这么多公司的时候
    你有从你看到的产品中
    获得什么启发吗
    我觉得有两点是这次CES下来
    会让我持续思考的问题
    一个是AI变成了所有智能硬件
    智能机型产品的共有的主题
    如何利用好AI的变量
    如何定义好AI的硬件产品
    我认为是一个蛮大的问题
    第二个感受
    可以明显的看到这几年CES的活动上
    中国品牌和中国公司的优势
    在快速的放大
    中国公司在很多品类
    在很多产品上形成了压倒性的产品力
    品牌的曝光度
    以及产品的打磨程度成熟度
    这一点可能相比几年前CES
    由海外的创新
    产品主导的趋势
    我认为发生了蛮大的变化
    越来越多的中国公司中国品牌
    在CES上面起到了引领创新
    高端产品的这样一个趋势
    你觉得有哪些中国公司
    在引领产品创新啊
    能不能举几个例子
    我举一个比较关注也比较熟悉的品类
    像扫地机器人
    中国现在已经有四五家公司
    无论从产品力从品牌从销售规模来讲
    不亚于海外的竞争对手
    像iRobot这样的本土品牌
    背后可以看到的是
    在一个比较主流比较成熟的市场里面
    其实中国公司的创新和迭代
    是非常迅速的
    比如今年
    比较典型的是石头科技和追觅科技
    两家公司
    分别推出了
    带有手臂操作能力的扫地机器人
    虽然看得出两个产品还在比较早期
    比较雏形的阶段
    但是在现在这个产品形态上
    做这样的结构和功能的创新
    其实中国公司在产品的研发的能力
    创新能力上
    已经领先了他国外的竞争对手
    蛮大的一个身位

    你举的这个例子其实特别有趣
    我今年看见CES它的创新产品的时候
    其中有一个画面
    就是说CES有一些扫地机器人
    就手臂可以在地上帮你捡
    一些你落在地上的
    比如说袜子呀
    一些零零散散的小东西
    剪完以后呢
    就把它放到一个规定的框里面
    但是其实我们内部啊
    我们就以消费者的角度
    我们是在吐槽这个产品的
    因为我们觉得从消费者的角度来说
    这个功能比较多余
    确实有的时候大家会在地上散落
    一些东西
    但是如果说地上有那么大一个东西
    可能我们就顺手捡起来了
    我不知道从消费者端
    你会怎么看这个问题
    我觉得扫地机器人首先解决的问题
    还是地面清洁的需求
    其实从过去十年
    中国公司的品牌的崛起
    产品的崛起
    其实是在这个核心需求上面
    不断进行的产品跟技术的创新
    比如24年比较显著的一个突破
    很多扫地机公司在边缘清洁方面
    推出了可以伸缩的清洁的手臂
    可以把清扫的边缘进行更好的覆盖
    同时呢在行进的动力轮上
    也增加了类似轮足的机械结构
    让扫地机可以跨越四五厘米的门槛
    我觉这两点
    其实对于地面清洁的核心诉求来讲
    都是有明显的提升
    我觉得今天石头跟追觅推出两个产品
    其实是一个概念性的尝试
    就是在地面清洁如果出现一些不规整
    或者一些明显的障碍物的时候
    能不能进行预先的或者是事后的整理
    让整个地面清洁的覆盖率和效率
    进一步提升
    当然今天
    对于扫地机器人的结构和形态来讲
    要增加手臂
    我觉得从基础上难度挑战还是蛮大的
    所以今天可能看到的这个雏形
    梨真正能够发挥很好的功效
    我感觉可能还需要两三代的产品迭代
    对我非常理解你说的
    比如说在地面清除脏物
    这确实是一个产品需求
    但其实我会觉得作为一个纯消费者
    我更关注的是
    比如说这个扫地机器人
    他自主上下水的能力
    因为这个是硬需求嘛
    你又可以扫地又可以拖地
    另外还有一种就是
    比如说我们家的扫地机器人
    遇到的最大的问题
    就是他其实扫完一个房间
    他的电量就不够了
    如果这个时候他还要去地面捡袜子
    我看了那整个过程啊
    他是非常非常慢的
    就是我能想象他的电量会耗得更快
    他其实是你的电池
    没有办法支撑你去扫脱整个房子
    这是类似于是这样的一些卡点
    这是更加消费者痛点的一些东西
    电池的增加
    可能在新的型号里面
    是个相对来说比较容易解决的问题
    是一个线性可以解决的问题
    但是他对于地面更多障碍物的处理
    我觉得还是一个蛮开放的问题
    这是更加研究性的对不对
    对因为今天像两个公司推出的手臂
    他们的负载大概是300-400克左右
    意味着可能除了袜子
    连一个比较重的拖鞋都是比较困难的
    而且我们也知道
    现在大家讨论具身智能
    讨论通用机器人也非常火热
    其实作为一个机械手臂
    在一个地面能够非常可靠的
    非常快速的抓取一个物体
    得到合理的放置
    就这样一个pick and place的一个问题
    其实对于很多机器人产品来说
    都是一个非常困难的事情
    在消费产品里面
    应该历史上
    还没有把这个功能真正产品化的公司
    我们看到很多在工业场景
    在研究场景里面出现的尝试
    或者是在一些重复性的工作场景里面
    工业场景里面出现的产品
    但是在消费级产品里面
    一个大批量低成本的方式生产
    带有手臂操作能力的机器人
    可能这还是第一次
    我可不可以理解成
    他们其实在训练机器人
    用手臂抓取地上袜子
    这种能力
    其实这个某种程度上
    也是具身智能的一种嘛
    其实这一套技术
    它是可以扩展成to b的解决方案
    它甚至可以扩展成
    工业流水线上的一个产业链
    的一个软件解决方案
    大家其实还是说
    我哪怕卖的是一个消费级的硬件产品
    但是
    我还是想在研发上走到最前面去的
    因为它可以探索更多的可能性
    可能在资本市场上的估值也会更好
    我觉得固执可能是一个侧面的好处
    但是主要来讲还是
    我们今天讨论具身智能
    讨论通用机器人
    讨论家庭服务机器人
    其实我们是很希望
    除了平面的清洁能力之外
    在家庭我们还能够引入相对低成本
    且有价值的用户场景
    我觉今天从消费者的视角来讲
    扫地机器人的用户价值
    和用户成本
    是有一个清晰的定义关系的
    大概在几百到1,000美元左右
    这是消费者愿意接受的价格
    那么未来
    会不会有
    脱离扫地机器人形态的
    家庭服务机器人的出现
    因为今天有非常多的公司
    研究院和实验室在做居身智能
    或者说手臂操作能力方面的研究
    但是大量的研究和尝试
    还是局限在工业或者商业场景落地
    因为从成本可靠性安全性的角度
    这样的新的技术
    可能一开始会落在一些工业型的场景
    会比较合理
    但是如果我们要引入家庭场景
    会一个什么形
    态什么样的价格
    我觉得这是一个非常值得关注的问题
    嗯对
    我觉得这个讨论的出发点特别好
    那作为投资人来看
    你会怎么去看他这类需求的研发
    这是你觉得
    这个会是他的一个核心竞争力吗
    这是你们评估的角度是什么
    我觉得创新型的用户功能的核心目的
    要么是为了解决一些持续的用户痛点
    扩大这个产品的接纳度
    也会带来产品的渗透率的增加
    或者是创造某一种差异化的竞争优势
    让公司在市场的实战率得到提升
    我觉得以扫地机器人
    增加手臂这个功能来思考的话
    今天的扫地机器人
    都不具有除了地面清洁之外
    对于外部环境
    进行一定的干预和整理的能力
    所以对于这些公司
    在今天的阶段引入这样的功能
    我认为更多的是一个差异化的诉求
    那今天我们以扫地机器人为例
    可能在欧美国家
    大概有百分之十几的渗透率
    还没有到一些常见家电
    可能百分之八九十的渗透率的普及度
    那么如何增加产品的渗透率
    我觉得可能就需要一些创新型的功能
    和创新型的场景的成熟跟打磨
    这个可能是一个比较长的一个过程
    就像过去十年
    我们逐渐看到扫地机器人在导航
    在清洁、在跃障、避障能力的迭代
    带来的渗透率的逐渐增加
    嗯简单来说就是需要产品更好用
    对不对

    嗯然后你刚刚提到
    欧美只有百分之十几的渗透率
    为什么这么低
    是因为大家对出海的决心的问题还是
    说欧美的家庭更多的是地毯
    而不是地板
    它的产品功能的需求点是不一样的
    这个可能是一个比较大的问题
    因为扫地机器人本身
    是在欧美国家发明的
    因为吸尘器在欧美国家
    生存率是很高的
    所以
    最开始iRobot的发明扫地机器人的时候
    核心的痛点其实就是解决吸尘的问题