近期,国家地方共建的具身智能机器人创新中心携手北京大学计算机学院,在智能机器人领域取得了突破性进展,他们共同发布了我国首个面向通用具身智能机器人的开源训练数据集。这一数据集涵盖了多样化的机器人形态,并针对广泛的任务场景进行了深度数据采集。
在创新中心的数据采集现场,工程师们正忙碌地操作着机械臂,在虚拟环境中捕捉机器人执行各种动作的数据。通过远程遥控,机器人能够学习并执行抓取等动作。同时,身穿全身动作捕捉服装的工程师们,正亲身示范,教机器人如何精准模仿人类的行为和习惯。这一创新方式极大地提升了机器人动作学习的效率和准确性。
为了满足机器人日常学习和数据采集的真实环境需求,创新中心还精心打造了多个不同类型的机器人数据训练场,包括商业零售、工厂生产线以及居家环境等。这些训练场为机器人提供了丰富的实践场景,有助于它们更好地适应各种实际应用环境。
据详细介绍,此次发布的数据集采用了单臂机器人、双臂机器人以及人形机器人等多种形态的机器人本体进行数据采集。数据集涵盖了279项不同任务的多类场景,涉及61种不同的物体。这一数据集不仅具有多本体、多技能、多应用的特点,而且是我国首个经过模型验证有效的通用性具身智能数据集。它的发布将极大地推动我国具身智能机器人技术的发展和应用。