Shadow Robot、Linker Hand、Optimus,谁是地表最强人形机器人灵
帕西尼最早开发的触觉灵巧手DeXH5就是一款典型多自由度机器人手与触觉传感器完美集成的产品,借助数百个模块化触觉传感器单元和人工智能算法,DexH5可以实现高精度的手指动作,如人手一般灵活。帕西尼DeXH5灵巧手还拥有0.01N高精度力控和5KG高负载能力和三段手指结构和高还原仿人手弯曲角度。前不久WRC,帕西尼...
在人潮涌动的世界机器人大会上,我们看到了“万亿美金”的新起点 |...
智元机器人则是一口气发布了五款商用人形机器人产品,包括3款适用于不同场景的远征系列(A2、A2-W、A2-Max),2款模块化机器人系列产品(灵犀X1和X1-W,后者面向专业数据采集)。星尘智能则发布了新一代AI机器人助理AstribotS1,这款产品也在2024世界机器人大会上正式亮相。星尘智能的机器人助理AstribotS1,正在烘...
机器人全部问答 - 问董秘
答:您好,目前,机器人行业正融合人工智能、大数据等新兴技术向智能化方向快速发展,未来机器人行业将迎来更加广阔的市场空间、吸引更多的优秀企业进入相关领域。公司始终关注机器人及智能装备制造相关领域的发展动态,愿意保持开放的态度与优秀企业合作共赢,感谢您的关注。2024-09-1023:04:52投资者提问来自:irm821353...
大模型“点睛” 人形机器人加速“进化”
????“感知触觉与视触觉相结合的多触觉传感器,配合上持续优化的控制算法,能够处理更广泛的物体交互。比如能实现左手捏住纽扣、右手拿针完成穿针引线这样基于视触觉位姿估计的精细操作。”智元机器人联合创始人兼首席技术官彭志辉说,当机器人拥有了感知触觉与视触觉的能力,它就可以做到对力的精准定位与对力度大小的调...
稚晖君一口气发布5款人形机器人,开发者还能“0元购”
G2阶段,有了大模型的加持,机器人开始实现一大类场景的快速迁移。方法是,针对大量不同场景任务,提炼出可复用的原子能力,且以相对通用的方式实现这些能力。过去一年,智元机器人在G2路线取得了阶段性突破,实现了通用的:位姿估计模型UniPose、抓取模型UniGrasp,力控插拔模型UniPlug等一系列zero-shot和few-shot的通用原...
稚晖君的机器人“0元购”计划
在通用原子模型方面,智元研发团队已经研发出通用位姿估计模型、通用抓取模型和通用力控插拔模型(www.e993.com)2024年9月19日。G3,端到端操作技能。在技术架构上与G2阶段基本相同,不同的是,从手工设计各种原子化能力转而通过数据采集,由数据驱动,端到端训练出一些原子能力。在这一阶段,机器人学习一个新的技能将不再需要算法工程师手工设计,...
90后北大博导造人形机器人,不学特斯拉
《晚点》:你从2016年开始研究如今的具身智能——把视觉模型、自然语言模型和机器人操作模型结合。从这些年的研发中你看到了什么?王鹤:我在读博时就在做具身智能,当时还不叫“具身智能”,最初是把这三个分立的小模型结合在一起,实现类别级物体位姿估计(位姿:一个物体在三维空间中的位置和姿态;位资估计:找...
视源股份申请用于多足机器人的状态估计方法、装置、设备及介质...
是否为关键帧;若是,则根据所述目标图像帧更新所述单窗关键帧数据并确定先验残差,根据单窗关键帧数据计算视觉残差;根据获取的IMU预积分计算IMU残差;根据单窗关键帧数据和IMU预积分计算腿部运动学因子残差;基于因子图模型,根据单窗关键帧数据、视觉残差、IMU残差、腿部运动学因子残差和先验残差,计算目标机器人本体位姿。
智元发布五款商用人形机器人
智元机器人定义了G1至G5的具身智能技术演进路线。具身智能技术演进路线(G1~G5)过去一年,智元机器人在G2路线取得了阶段性突破,实现了通用的位姿估计模型UniPose、通用的抓取模型UniGrasp,通用的力控插拔模型UniPlug等一系列zero-shot和few-shot的通用原子技能。在G2阶段的原子能力模型,...
首次透露商业化进展,智元机器人称发货量已超300台
稚晖君称,过去一年,智元机器人在G2路线取得了阶段性突破,实现了通用的位姿估计模型UniPose、通用的抓取模型UniGrasp,通用的力控插拔模型UniPlug等一系列zero-shot和few-shot的通用原子技能。在G3路线上,智元机器人也已形成了一套完整的全流程具身数据方案AIDEA(AgibotIntegratedData-systemforEmbodiedAI,智...