俄罗斯首个AI人形机器人“艾多尔”在亮相时引发了广泛关注,然而其表现却令人大跌眼镜。在伴随电影《洛奇》主题曲登场后,它仅向观众挥了挥手,便迅速失去平衡,倒地抽搐,最终被工作人员匆忙拖走。这一尴尬场景,折射出当前人形机器人技术面临的现实挑战。
近期,类似的技术“翻车”事件并非个例。9月,特斯拉Optimus因反应迟缓遭到用户吐槽;1X公司预售款机器人的“惊艳演示”被曝光依赖远程遥控,引发舆论质疑。业内人士指出,许多机器人演示高度依赖人工操控,甚至难以完成“站稳并执行简单操作”的任务。在工厂环境中,让机器人完成插接设备或贴膜等基础工作,难度堪比“登月”。
英特尔在与数十家具身智能团队交流后发现,机器人从“能跑会跳”到“能在产线干活”之间,存在巨大的技术鸿沟。其中,算力平台的局限性成为阻碍机器人落地生产线的核心因素之一。
目前,主流人形机器人多采用“大脑+小脑”的架构设计。“大脑”负责复杂认知任务,如世界建模、图像识别等,依赖大模型推理;“小脑”则专注于实时运动控制,包括步态规划、机械臂操作等,对响应速度要求极高。然而,随着动作生成模型、多模态感知等技术的叠加,机器人对算力的需求呈指数级增长。一位行业专家坦言,部分企业使用的芯片算力虽达100-200TOPS,但仍难以满足实际需求。
为应对算力挑战,许多企业选择“拼凑”方案:用不同厂商的芯片分别运行“大脑”和“小脑”。例如,用Intel酷睿处理器处理认知任务,NVIDIA Jetson Orin负责运动控制。但这种“两套班子”模式导致跨芯片通信延迟,直接影响了机器人的精度和稳定性。正如“艾多尔”的摔倒事件所示,视觉指令传输的微小延迟,就可能引发灾难性后果。硬件堆叠还带来了开发成本高、散热困难、功耗过大等问题,难以满足制造业对投资回报率(ROI)的严苛要求。
制造业对机器人的考核标准极为严格。硬指标方面,机器人需具备稳定性、安全性,同时控制成本、能耗和部署难度;软指标方面,企业希望技术投资具备灵活性,能够随产线变化快速调整。显然,传统的“拼凑”方案无法满足这些需求。现场专家指出,将CPU、GPU、NPU等异构算力高效整合到单一芯片中,并实现协同工作,是突破行业瓶颈的关键。
针对这一难题,英特尔提出了“大小脑融合”方案,通过单颗SoC芯片实现智能认知与实时控制的统一。其酷睿Ultra处理器在单一封装内集成了CPU、锐炫GPU和NPU,三者协同工作,可同时处理AI推理、高性能计算和工业级实时控制任务。这种设计类似于重庆火锅的九宫格,各模块既可独立运行,也能根据需求自由组合,为机器人厂商提供了高度灵活的开发环境。
酷睿Ultra的GPU部分拥有77TOPS的AI算力,可支持7B-13B级别视觉语言模型(VLM)的运行,满足物体识别、路径规划等任务需求。若需更强算力,还可通过Intel Arc独显进行扩展。当任务复杂度进一步提升,如全身动作控制或多模态长链推理,则可结合云端或边缘大脑完成协同推理。这种按需扩展的异构算力体系,为机器人执行复杂任务奠定了基础。
NPU则专注于轻负载常驻任务,如语音唤醒、动态物体检测等,确保低功耗和零延迟体验。CPU的价值在传统运控领域得到进一步放大。得益于英特尔在机器人领域的长期积累,CPU在运行视觉算法和运动规划时,实时抖动小于20微秒,可稳定支持平衡控制、复杂力控等对延迟敏感的任务。CPU内置的专用AI加速指令,还能分担部分原本由GPU执行的推理任务,优化算力调度和能效表现。
英特尔公司副总裁Dan Rodriguez透露,明年1月发布的Panther Lake处理器(18A工艺)将进一步提升性能。其图形性能最高提升50%,同等性能下功耗降低40%,AI加速能力达180TOPS,并支持扩展温度范围和工业级实时性,有望进一步拓展具身智能的应用场景。
除硬件创新外,英特尔还提供了完整的软件栈支持。针对硬件制造商,其AI Edge Systems方案整合了操作系统、驱动、SDK和实时优化工具,可快速构建机器人系统;面向系统软件厂商,Open Edge Software Toolkit提供了AI库和OSV级优化,确保跨平台稳定运行;对于行业方案开发者,AI Suites则提供了抓取、导航等现成技能模板,支持大模型快速集成,大幅缩短开发周期。
英特尔的技术路径强调开放性与灵活性。其方案支持CPU/GPU/NPU/FPGA的混合调度,兼容Intel与Arm平台,主流AI框架和模型均可自由运行,不绑定特定库或模型。这种设计允许企业基于现有IT/OT基础设施进行技术演进,避免被单一供应商锁定。目前,英特尔已与国内数十家具身智能厂商展开合作,其中十余家进入验证或概念验证阶段。在充满不确定性的赛道中,这种开放体系正成为越来越多企业的选择。