MTTAIBOOK预装“龙虾”,摩尔线程想把AIPC往前推一步

张开发
2026/4/11 23:40:14 15 分钟阅读

分享文章

MTTAIBOOK预装“龙虾”,摩尔线程想把AIPC往前推一步
作者猫叔AIPC这两年说得很多但是产品真正到了用户手里AI的能力其实并不一定是立刻能用的。作为普通用户来说这中间复杂的几步配置其实蛮消耗热情的对开发者来说其实也很难把一台设备当成稳定终端长期使用。不过最近我看到摩尔线程的MTTAIBOOK通过OTA推送了MT AIOS 1.3.4版本更新升级完成后无需手动配置环境和安装依赖开机即可使用“龙虾”。同时还新增12个Skill覆盖智能搜索等常用能力后续还能通过OTA和PES控制中心双通道持续更新并保留原有配置和数据。坦白讲这件事之所以值得拿出来说在于它刚好对应了AIPC竞争逻辑的一次拐点。在上一阶段行业的主线是“能力验证”。具体来说就是谁先把大模型接进来把本地算力堆上去这个阶段的本质是设备到底能不能跑AI是基础设施层面的比拼。但当“能跑模型”逐渐成为共识之后重心就开始转移了大家开始关心AI能力能否转化为稳定、可持续的使用行为。也正是在这一节点上“默认体验”开始成为新的分水岭。它的关键其实就在于AI是否被前置进了用户路径。意思是用户不需要理解模型、额外部署打开设备即可使用而且在后续更新过程中不会反复打断原有使用状态。01 为什么是MTTAIBOOK如果把“默认体验”作为判断标准那么下一步的问题就是什么样的终端更适合做这件事。我的结论是取决于整机是否围绕AI负载做过系统级优化。从载体看MTTAIBOOK被定义为“AI算力本”基于自研SoC“长江”配合全大核CPU、全功能GPU以及最高50TOPS异构算力和32GB内存配置。当然这些能力本身并不是全部但至少说明这台设备在设计阶段就把本地AI负载作为长期存在的使用场景来考虑而不是后期叠加的。这点在智能体场景其实尤为关键。因为智能体其实可以看作一整条持续运行的链路——模型调用、上下文管理、检索、工具使用、文件处理以及任务编排。而很多设备的问题在于链路不稳定、调用分散最终呈现为碎片化体验。从这个角度看MTTAIBOOK的“更适合”在于其具备把本地智能体跑成连续体验的基础条件。当然这还只是前提02真正值得看的是交付相比“能不能跑”这次更新的价值还在于交付方式上的变化。简单理解把“龙虾”以预装形态进入系统其实就是把原本需要用户自行搭建的环境提前封装为可直接使用的能力。但更关键的是后面几件事——OTA更新、PES控制中心双通道以及升级过程中保留原有配置和数据。这些设计针对的是更关键问题——AI能力能不能在设备上持续存在而并非一次性体验。其实很多本地AI方案的瓶颈并不在初次部署而在后续迭代。一旦版本更新带来环境或配置变化原有使用路径被打断用户往往很难恢复到稳定状态。因此是否能够在更新过程中保持连续性才是决定其能否被长期使用的关键因素。再看新增的Skill其变化更多也体现在使用路径上。从实际使用上看终端智能体是否会被频繁调用往往不仅仅取决于能力复杂度更多的与是否存在低门槛、高频入口相关。就比如像智能搜索这类功能更容易进入日常场景从而形成重复使用。所以在预装、持续更新与入口叠加的前提下AI能力才更容易从一次性调用转变为更稳定的使用行为。

更多文章