2026年4月28日,第三届中国具身智能与人形机器人产业大会在北京市海淀区中关村国家自主创新示范区展示交易中心隆重召开。本次大会汇聚了全球顶尖科研机构、企业代表及行业专家,共同探讨具身智能与人形机器人的前沿技术、应用场景及产业生态发展。作为本次大会的重要参展商,爱迪斯通(EdisonTech)携旗下多款先进机器人训练设备亮相,全面展示在机器人感知、交互与操作领域的创新应用成果,引发广泛关注。多款核
了解更多04-28 / 2026
背景由Meta FAIR开发的OSMO手套通过在人类演示过程中捕捉丰富的触觉反馈,这一用例的实现标志着人类到机器人技能转移的突破。挑战大多数在演示管道中学习的机器人严重依赖于基于视觉的手部跟踪。当指尖被物体、工具或表面遮挡时,这些方法在真实世界操作中就会失效。同时,视觉无法推断压力、剪切力或抓握稳定性等接触力。因此在没有触觉信息的情况下训练的策略经常会因不一致的压力应用、滑动或在执行期间失去接触而
了解更多04-15 / 2026
捕捉、训练、扩展,一套系统解决所有需求Xsens Link动作捕捉套装专为无缝融入机器人开发和训练流程而设计,套装具备以下特点:Xsens Link 全身数据采集套装全身动作数据采集20毫秒超低延迟240赫兹高刷新率抗磁干扰15分钟内完成穿戴校准,即时使用支持热插拔的电池配置Manus Metagloves Xsens版数据手套手指动作数据采集<7.5毫秒低信号延迟120赫兹传感器采样率绝对位置,
了解更多03-26 / 2026
将视觉-语言-行动(VLA)策略扩展到具有高自由度灵巧手的双手机器人是一项艰难的挑战。ByteDexter V2灵巧手每只手有21个自由度,该方案创造了一个传统遥操作方法难以企及的56自由度双手系统。字节跳动Seed的研究人员在GR-Dexter技术报告中指出,当每个末端执行器都是需要精确、协调控制的多指拟人手时,难度会大大增加。为了让VLA的操作在该规模上取得成功,研究人员需要捕捉复杂的手与物体
了解更多03-25 / 2026
“RoboBrain-Dex:多源自我中心训练用于集成灵巧视觉-语言-行动模型”。灵巧手遥操作目前为止仍然是机器人技术中最具挑战性的前沿领域之一。尽管视觉-语言-动作模型在通用机器人能力方面表现出很大潜力,但其面临一个关键瓶颈:灵巧手技能的大规模学习、动作注释数据稀缺。传统遥操作方法成本高且耗时,而现有的人类运动数据集则存在视角依赖、遮挡和捕获环境受限等问题,这限制了它们在机器人训练中的应用。北京
了解更多01-14 / 2026
人工智能机器人培训MANUS数据手套的可扩展学习使用MANUS手套训练机器人灵巧的手:专为超精确手指跟踪和实时动作捕捉而设计。手套可以捕捉高分辨率的运动数据无缝集成到机器学习管道中-支持开发类似人类的抓取和操纵行为。轻松的人工智能模型集成机器人学习的精确演示用于机器学习算法的优化数据与ROS 2和SDK的机器人控制集成使用机器人手套远程控制机器人:将实时数据流传输到ROS 2(机器人操作系统)。M
了解更多01-13 / 2026