MOSS × Reachy Mini
最佳实践
为了让具身智能开发者更快理解 MOSS 的工程价值,我们基于开源桌面机器人 Reachy Mini,构建了一套完整的具身智能运行样本。它不是一个 Demo,而是一套覆盖「感知 → 决策 → 执行 → 表达」的持续运行系统。

为什么选择 Reachy Mini
桌面级、适合开发验证
开放、可编程平台
结构完整、多能力通道
有视觉、声音、运动能力
适合作为具身智能参照平台
平台参数
9 自由度
120° 广角摄像头
麦克风阵列 + 扬声器
Raspberry Pi CM4
Linux 可编程平台
已验证的九大能力域
01运动控制能力
02声音交互能力
03视觉交互能力
04屏幕与 GUI 控制能力
05记忆能力
06人格定义与切换能力
07工具调用与外部能力扩展
08生命周期状态管理能力
09模型切换与反身性控制能力
重点能力展开
运动与动作表达
MOSS 可以让机器人在对话和交互中实时触发基础动作、预置动作和组合动作,而不需要在应用层预先编排完整脚本。
语音交互
支持按键说话、回车说话等模式,并可进一步扩展到自由对话与聆听模式;语音风格和表达可在运行时切换。
视觉感知
支持视觉关键帧分析、连续视觉帧、目标识别、找物、看向目标等能力,让机器人从对话系统走向环境参与者。
多通道统一控制
把语言、视觉、肢体动作、情绪反馈和环境交互组织成统一调度框架,使机器人实现“边说边做”的连贯行为表达。
记忆与人格
系统已支持事件记忆、关系记忆、主题记忆以及多人格定义、切换和行为风格调整,让交互保持连续性与一致性。
演示视频
开发价值
Reachy Mini 最重要的价值,不只是展示机器人效果,而是作为一套可复用的具身智能开发样板。开发者可以从这个最佳实践出发,把自己的机器人、本体或设备快速接入 MOSS,建立更高的交互能力基线。
