苹果还在憋大招,华为已经搞出了“会主动思考”的手机

今天刷到一条新闻,看完之后我在椅子上愣了五秒钟。

2026年4月17日,华为发布了一条预热视频,公开展示了Pura X Max上搭载的小艺伴随式AI功能。视频里的小艺,不再是“用户问一句、AI答一句”的被动工具,而是能主动分析场景、预判需求并推荐服务的系统级智能体。

什么叫“主动”?视频里展示了几段:用户收到一条“下周六下午2点安福路Hope Bistro见”的消息,小艺立刻抓取时间地点、加入待办事项,然后弹出高德打车选项,还贴心地显示去虹桥机场的预估时间。在花店收到工作消息说明天活动改时间,建议提前出发,可能下雨堵车——小艺马上识别关键信息,一键加入待办列表。展开大屏阅读文章,选中一个陌生词汇,侧边栏即时给出解释。读完一篇名画科普,小艺主动推荐延伸问题,比如“《珍珠耳环的少女》为何无名却传世”,点一下就有答案。

全程不用切换应用,不用手动复制,不用打字搜索。手机好像变成了一个懂你在想什么的“人”。

这件事,越琢磨越有意思。

你回想一下,过去这么多年,我们对AI的使用方式是什么?打开一个对话框,输入问题,等它回答。或者喊一声“小艺小艺”,给它一个指令,它执行。这叫“被动响应”,本质上是工具思维——我需要的时候,你帮我干一件事。

但华为这次做了一个根本性的转向:AI不是等用户发号施令,而是主动感知、主动理解、主动服务。 它一直“在”你身边,只是你感受不到它的存在,直到你需要它的那一刻,它恰好出现。

这背后的技术逻辑,值得好好说一说。过去的AI交互,大致经历了两个阶段:第一代生成式AI,以被动响应为核心,本质是“需求-输出”的单向工具;第二代代理式AI,能跨应用调用、步骤拆解完成任务,但触发仍然依赖用户主动发起指令。而华为这次推出的伴随式AI,依托端侧大模型的实时计算能力,在无显性指令时持续感知用户场景,主动理解潜在意图并提供服务——从“等待指令”到“预判需求”,交互逻辑彻底翻转。

更关键的是,这种能力被直接内置到了手机端侧,不需要把数据传到云端,响应更快,隐私也更有保障。华为2025年在中国折叠屏手机市场以71.8%的占比位居榜首,端侧AI的积累不是一天两天的事。这次搭载麒麟9030系列芯片、首发鸿蒙6.1系统的Pura X Max,算是把端侧大模型的潜力真正释放出来了。

对比一下苹果。苹果在2024年WWDC上高调展示了类似的AI能力,但时至今日,苹果AI依然遥遥无期。传闻中的iPhone Fold最快也要2026年底才能上市,届时苹果AI能否同步落地还是未知数。而华为这边,4月20日发布会,伴随式AI随手机同步落地,消费者不用等。说一句“领先半年”,一点都不夸张。

这让我想起你写的那篇关于“Prompt就是普通人的编程语言”的文章。你说,AI时代最重要的技能,是学会跟AI对话。现在回头看,华为干的这件事,是把“对话”这个动作都给省了——不用你开口,它就帮你办了。

所以你看,进步从来不是线性的,而是跳跃式的。 你刚学会一项技能,以为自己领先了,结果转眼之间,这项技能可能就不需要了。不是因为这项技能错了,而是因为技术本身的定义被改写了。

这让我想起你写的那句“不是AI革命了我们,而是我们自己的不思进取,不思转变,是咱们自己革命了咱们自己的工作”。放在今天看,更有味道了。华为用一个“伴随式AI”,直接跨过了“用户主动调用AI”的阶段,进入了“AI主动服务用户”的时代。当你在纠结怎么把提示词写得更精准的时候,华为已经让AI不需要提示词了。

4月20日发布,预订通道已开启。起售价多少其实已经不重要了,重要的是它向我们展示了一个方向:真正好的科技,不是让你费劲去学它,而是它主动来懂你。

这大概就是华为这次给出的答案。苹果还在憋大招,华为已经把“会主动思考的手机”摆在了你面前。