LinxuAI

MOSS × Reachy Mini

最佳实践

为了让具身智能开发者更快理解 MOSS 的工程价值,我们基于开源桌面机器人 Reachy Mini,构建了一套完整的具身智能运行样本。它不是一个 Demo,而是一套覆盖「感知 → 决策 → 执行 → 表达」的持续运行系统。

Reachy Mini desktop robot

为什么选择 Reachy Mini

桌面级、适合开发验证

开放、可编程平台

结构完整、多能力通道

有视觉、声音、运动能力

适合作为具身智能参照平台

平台参数

9 自由度

120° 广角摄像头

麦克风阵列 + 扬声器

Raspberry Pi CM4

Linux 可编程平台

已验证的九大能力域

01运动控制能力
02声音交互能力
03视觉交互能力
04屏幕与 GUI 控制能力
05记忆能力
06人格定义与切换能力
07工具调用与外部能力扩展
08生命周期状态管理能力
09模型切换与反身性控制能力

重点能力展开

运动与动作表达

MOSS 可以让机器人在对话和交互中实时触发基础动作、预置动作和组合动作,而不需要在应用层预先编排完整脚本。

语音交互

支持按键说话、回车说话等模式,并可进一步扩展到自由对话与聆听模式;语音风格和表达可在运行时切换。

视觉感知

支持视觉关键帧分析、连续视觉帧、目标识别、找物、看向目标等能力,让机器人从对话系统走向环境参与者。

多通道统一控制

把语言、视觉、肢体动作、情绪反馈和环境交互组织成统一调度框架,使机器人实现“边说边做”的连贯行为表达。

记忆与人格

系统已支持事件记忆、关系记忆、主题记忆以及多人格定义、切换和行为风格调整,让交互保持连续性与一致性。

演示视频

开发价值

Reachy Mini 最重要的价值,不只是展示机器人效果,而是作为一套可复用的具身智能开发样板。开发者可以从这个最佳实践出发,把自己的机器人、本体或设备快速接入 MOSS,建立更高的交互能力基线。