不追“全能”追“拟人”。
“我们相信如果机器人已经足够「拟人」,也许他也可以「自己来介绍自己」。”超维动力联合创始人Tyler表示。
4月26日,具身智能企业超维动力Kinetix AI(KAI)举办「降临GIFTED」发布会,正式推出其首款全尺寸人形机器人「KAI」,而本次发布会的一大亮点就是机器人「自己发布自己」。
NE时代智能体 ,赞15这款机器人以高拟人设计为核心,聚焦人机协作与共处场景,整合了超维动力在机器人硬件、AI模型、数据采集等领域的核心技术,展现了具身智能领域的全新探索成果。
01.
“本体+模型+数据+训练”,只为更拟人
具身智能的核心,不会只有硬件。超维动力认为具身智能背后的真正问题是机器人是否能够理解世界,并在真实的世界中展开行动,而这一切都指向了一个核心能力,那就是World Model世界模型。
然而,如果要承载更强的World Model世界模型,机器人就需要一个更高的拟人本体,因为人类世界本身就是围绕人的身体所构建的。
因此,「高拟人」从来不是只是一个外观的选择,而是具身智能发展一定阶段之后,对机器人本体提出的一个更高的必然要求。
此次发布的KAI的本体被命名为「KaiBot」,其外形与人体高度贴近,身高173厘米、体重70公斤,头身比为1:8.5,体型和质量分配与成年人类相近,既能保障运动稳定性,又能贴合人类的外形与重心分布。

全身拥有115个自由度(手臂7x2,躯干13,手部36x2,腿8x2),关节结构完全复刻人类,可覆盖人类几乎所有运动空间。


其中,肩部上抬、环抱,颈部、腰部的运动范围分别覆盖-20°~0°、-15°~0°、-15°~50°、-15°~75°,更贴合人类肢体在复杂环境中的自然使用方式,甚至能完成高难度瑜伽动作。


配备独家自研36个自由度灵巧手,包含22个主动自由度和14个柔顺自由度,主动自由度可实现类人化抓握使用工具,柔顺自由度能避免硬性接触造成的损坏,同时搭载单向自锁结构,可长时间握持重物且无需高能耗输出。


该灵巧手既能完成抓握、捏取等精细操作,也能缓冲碰撞,提升交互的安全性与自然度。

KaiBot搭载1.7kWh半固态电池,可支持约3小时的双臂操作任务;定制化柔顺执行器不仅让机器人的运动更贴近人体的柔顺性,还使双臂负载接近20kg,兼顾了交互友好性与实际作业能力。


此外,KAI配备全身触觉皮肤系统,拥有18000个触点,全身覆盖面积80%+,理论上可感知并反馈大于0.1N的轻微触碰,为真实场景下的近距离协作、陪伴交互建立了更高质量的反馈闭环。


为实现高拟人与稳定性的平衡,工程师团队深入研究生物工程学和解剖学,逆向人类肌肉应力与关节力学支撑系统,构建了体能拟人的基础。

世界模型是具身智能系统的核心,其训练以第一人称视角数据为主要来源,同时依赖超高拟人本体实现落地应用。
第一人称视角数据源于人类日常生活,既能解决数据规模化瓶颈,又能记录人类在物理世界中的真实行为与交互过程,而超高拟人本体可高效利用这些人类数据,同时也是世界模型的最佳载体。
在过去的半年多时间里,超维动力依托 KAI 基础模型,实现了叠衣服长程任务的落地;同时,超维动力构建了全身运动控制模型,成功达成了乒乓球这类高动态场景下的交互目标。
基于上述积累,超维动力认为,真正的具身智能 “大小脑” 应包含世界模型、动作模型与评估模型。

具体而言,一个真正具备实用价值的具身智能系统,必须能够精准理解环境信息、预测交互行为的潜在结果,并且能够从任务目标出发,对自身动作进行科学评估,而非仅执行局部的机械性操作。
KAI世界模型以人和人形机器人的视角设计,将人形机器人的全身动作(含手部操作与全身移动)作为输入,以虚拟世界初始化为训练第一步,最终输出交互结果预测与未来世界自主探索。
其核心架构中,动作模型生成下一步可能的动作空间,世界模型基于候选动作推演未来状态变化,评估模型则从任务目标、接触安全、本体可行域等维度,对模拟轨迹进行价值评估,形成“生成候选动作-模拟后果-选择最优策略”的决策流程。

第一人称视角数据的采集与处理,是世界模型训练的关键支撑。
数据采集方面,正如上文提及,KAI采用第一人称数据集学习世界,核心思路是借助人类的视角和动作观察、接触世界,获取更贴近真实场景的经验。

超维动力设计了轻量化头环形态的规模化素材终端KAI Halo,采用“一芯八摄”设计,可通过纯视觉方式完成人体姿态、场景点云重建及语义标注,实现人类世界数据的一站式收集,目前已在家庭场景规模化部署。

通过众包模式,该公司已在家庭、酒店等20多个场景累计收集10万小时非脚本化第一人称视角数据,可记录人类下意识的动作反应,为机器人理解人类行为、模仿人类动作提供支撑。
为处理海量第一人称视角数据,超维动力搭建了INFRA平台,可自动检测采集过程中的异常片段(如关节丢失、运动轨迹异常),避免污染模型。
同时通过数据重定向,将合格数据映射到机器人本体,确保符合机器人运动空间约束,并可根据训练目标调整不同场景数据比例,构建专属数据集,实现模型的每日迭代与指数级升级。
世界模型采用三段式训练策略,以解决泛化与本体对齐问题。

预训练阶段,利用大量互联网和仿真数据,结合自采的第一人称视角数据,补充全身与环境交互的语义信息,构建“空间-语言-视觉-任务动作”对齐的“常识”;
桥接训练阶段,使用自研UMI数据和数采手套数据,补足预训练阶段物理接触模态的缺失,其中UMI数据用于建立contact rich任务与物理世界的真实接触关系,数采手套数据则补充手部控制细节,记录手指关节弯曲及接触过程中的摩擦力、压力;
后训练阶段,引入真机遥操作数据,解决模型跨本体映射误差,目前已在真实场景中开展训练,如家庭叠衣服等任务。
整体来看,超高拟人本体、世界模型与第一人称视角数据三者紧密关联:第一人称视角数据为世界模型提供高质量训练素材,超高拟人本体为数据利用与模型落地提供载体,而世界模型则赋予超高拟人本体理解环境、自主决策的能力。
而在超维动力看来,真正的人形机器人无需追求“全能”,核心是具备人类般的理解、学习、推理、使用工具及适应世界的能力,最终实现智能、运动与情感的三重涌现。
因此,KAI的落地应用并非聚焦于无人工厂重物搬运、舞台极限翻滚等场景,而是面向家庭、办公室等日常场景,旨在理解人类意图、回应触碰,实现与人的协作与共处。
02.
超维动力是谁?
作为2025年正式成立的创新主体,超维动力的核心团队长期深耕机器人、自动驾驶与多模态大模型领域,具备从底层算法到产品工程化的完整能力。
此前,超维动力不仅自主设计并量产医用康复外骨骼机器人、推动L4级矿卡商业化落地,还携手合作伙伴打造了首个被《Nature》报道的国产统一语言与视觉多模态大模型、全球首个端到端自动驾驶大模型(获评CVPR自动驾驶历史最佳论文),主导打造的高拟人人形机器人更入选Morgan Stanley《Humanoid 100》。
此外,该团队还携手打造了全球首个分层AI Agent框架,位居GAIA开源模型榜首;与合作单位联合发布的统一VLA大模型,性能超越PI0.5,展现出强劲的技术实力。
以“物理世界模型+全身驱动系统”为基础,超维动力的核心技术能力涵盖五大方面:
一是空间智能,突破二维图像语义理解局限,具备三维空间感知、未知空间推理决策与路径规划能力;
二是高拟人全身运动控制,通过实时力控、动态平衡与全身协调算法,实现机器人在真实世界的自然、可靠、安全行走与操作;
三是视觉–语言–触觉–动作统一模型,赋予机器人“看、听、触、思、动”的一体化认知能力,适配各类真实场景;
四是全身数采工厂,依托轻量化穿戴式数采设备与众包方案,实现海量真实场景数据回流,推动具身智能数据飞轮闭环;
五是具身智能基础设施,通过高保真仿真训练与真实数据微调,实现技术快速迭代,保障机器人进入实际场景前具备充足能力与安全边界。
而这五大核心技术能力,刚好对应了KAI机器人的「本体+模型+数据+训练」的全方位闭环。
除了KAI机器人本身,此前,超维动力与HKU MMLab联合推出的世界首个可室外自主感知的高动态人形机器人乒乓球系统SMASH,也展现了其技术实力。
该系统摆脱了对外部设备的依赖,所有感知功能均集成于机器人自身,仅凭机载传感器就能完成球路追踪、移动规划与击球动作,即便面对户外光线变化、风力干扰、地面不平整等复杂变量,也能稳定实现人机全身运动交互。
NE时代智能体 ,赞16目前,超维动力Kai在人形机器人核心技术领域已取得多项具体成果,针对性解决了行业内的关键痛点。此前笔者曾经详细盘点过(详情点击链接)。
03.
写在最后
“机器人要真正融入人类世界,它必须更拟人。”超维动力联合创始人Tyler在发布会上表示,人类的物理智能是从与人类世界互动而来,机器人至少需要理解世界、学习世界、与世界交互,而对应的就是物理世界模型、第一人称数据集、高拟人本体。
此次KAI机器人的发布,是超维动力在具身智能领域的重要落地成果。依托深厚的技术积累、完善的产品体系和清晰的落地方向,超维动力正推动人形机器人从技术研发走向实际应用,逐步实现与人类的协作共处,为具身智能行业的发展提供了新的思路与范式。













沪公网安备31010702008139