您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[民生证券]:一周解一惑系列:人形机器人——视觉与IMU传感器的再讨论 - 发现报告
当前位置:首页/行业研究/报告详情/

一周解一惑系列:人形机器人——视觉与IMU传感器的再讨论

机械设备2023-07-16李哲、罗松民生证券如***
一周解一惑系列:人形机器人——视觉与IMU传感器的再讨论

一周解一惑系列: 人形机器人——视觉与IMU传感器的再讨论 2023年07月16日 本周关注:福斯达、奥普光电、冰轮环境、三花智控 推荐 维持评级 本周核心观点:关注业绩预期表现较好的出口链及人形机器人视觉传感器:人形机器人中主要采用立体视觉与TOF法。1)当前主流的 分析师李哲执业证书:S0100521110006电话:13681805643邮箱:lizhe_yj@mszq.com分析师罗松执业证书:S0100521110010电话:18502129343邮箱:luosong@mszq.com 的视觉方案分为飞行时间(TOF)法、立体视觉法、结构光法。飞行时间法(TOF)主要利用信号在两个被反射面之间往返的飞行时间来测量节点间的距离,结构光法通过投影仪向目标物体投射具有特殊结构的图案并使用另一个相机去观察在三维物理表面成像的畸变情况,立体视觉法指从不同的视点获取两幅或多幅图像重构目标物体3D结构或深度信息,目前立体视觉3D可以通过单目、双目、多目实现。2)综合分析特斯拉、优必选、小米、波士顿动力,综合成本与性能考虑,目前人形机器人中主要采用TOF法与立体视觉法。特斯拉Optimus机器人的3D传感模块以多目视觉为主,优必选WALKERX采用基于多目视觉传感器的三维立体视觉定位,小米发布的CyberOne机器人所搭载的Mi-Sense深度视觉模组是由小米设计,欧菲光协同开发完成,而据欧菲光公开的资料,其机器视觉深度相机模块主要由iToF模组、RGB模组、可选的IMU模块组成。波士顿动力的Atlas头部有两个摄像头其中一个是TOF深度相机。 视觉传感器分为消费级与工业级,不同情形下单价有差异。消费级3D视 觉方案对于精度的要求更低,对成本的控制更为严格。以奥比中光披露的数据 相关研究 作为参考,其整体产品对B端的平均售价在100-1000元,C端零售价在 1.一周解一惑系列:核电阀门需求空间几 1000-2000元,主要产品系列为TOF方案,以及单目/双目+结构光的组合方 何?-2023/07/09 案。工业级机器视觉由于各厂商内部情况和应用场景不同,定制化程度更高, 2.一周解一惑系列:半导体封装测试设备及 对技术、精度、稳定性等的要求也更高,工业中的机器视觉单元主要由工业相机、图像采集卡、图像处理器构成。以埃科光电披露的数据作为参考,2D工业线扫相机单价约6000元,2D工业面扫相机的单价约3.6万元。工业相机主要由光源、镜头、图像传感器组成,图像采集卡承担着连接着工业相机与图像处 市场空间梳理-2023/07/023.一周解一惑系列:丝杆与直线导轨:高精密直线运动核心部件-2023/06/26 4.机器人的进化与觉醒——人形机器人执行 &传感机构探讨-2023/06/24 理器的功能。同样根据埃科光电的采购数据,图像传感器单价约3000元,图 5.一周解一惑系列:多领域散热材料、工艺 像处理芯片的价格约500元,而搭配使用的图像采集卡价格约3000元。 的发展历史与路径演绎-2023/06/19 IMU传感器:人形机器人借助实现定位、平衡及姿态检测。综合分析 UCLA论文、特斯拉、波士顿、小米,目前人形机器人中需要采用IMU,IMU惯性传感器采集的角速度与加速度等惯性信息可以用于推算人形机器人的实时位置与运动轨迹,同时可以与机器人搭载的多传感器融合,在数据类型和数据频率间实现互补。同时根据精度要求,IMU可分为消费级、工业级、战术级,根据原理的不同也可分为MEMSIMU,光纤IMU,其中自动驾驶或人形机器人一般采用工业级的MMESIMU即可,其价格带在数百元至数千元。 IMU难点主要在解决误差和提高精度。MEMSIMU的误差一是来源于惯 性传感器自身的误差,二是IMU在集成过程中产生的误差。而上述两种误差又可分为系统误差和随机误差。其中系统误差主要有零偏误差、非正交误差、非线性误差、温度误差等、除去解决每种系统误差的方法外,随机误差也可以通过后期算法校准,通常采用Allan方差法,这也是壁垒之一。 投资建议:建议关注有相关IMU、视觉传感器及核心零部件布局公司芯动 联科、华依科技、奥比中光、埃科光电(新股)。 风险提示:人形机器人需求不及预期、量产技术路线中对传感器精度需求 较低导致单价波动。 目录 1机器视觉方案介绍3 1.1走进机器视觉产业3 1.2机器视觉方案4 1.3机器视觉市场空间9 2机器视觉产业链上游介绍10 2.1相机分类及标准10 2.2机器视觉上游零部件介绍12 2.3机器视觉部件单价一探14 3惯性导航方案17 3.1IMU(惯性测量单元)介绍17 4惯性导航在自动驾驶和人形机器人领域的应用20 4.1高精度惯导为L2.5+自动驾驶刚需20 4.2人形机器人借助IMU实现定位、平衡及姿态检测22 5IMU技术难点重在解决误差和提高精度23 5.1惯性传感器中存在系统误差和随机误差23 5.2光纤陀螺仪技术难点24 5.3MEMS陀螺仪与IMU技术难点24 5.4误差补偿的途经:算法与校准28 6IMU市场空间30 7风险提示32 插图目录33 表格目录33 1机器视觉方案介绍 1.1走进机器视觉产业 机器视觉系统是指用计算机来实现人的视觉功能,即用计算机来实现对客观的三维世界的识别。人的视觉系统是一个三维采样系统,三维物体的可见部分投影到网膜上,人们按照投影到视网膜上的二维的像来对该物体进行三维理解。所谓三维理解是指对被观察对象的形状、尺寸、离开观察点的距离、质地和运动特征(方向和速度)等的理解。机器视觉由此衍生而来,是一个“光、机、电、算、软”等技术高度集成的系统。一个完整的机器视觉系统包括:照明光源、光学镜头、相机、图像采集卡、图像检测软件、监视器、通讯单元等。 1.1.1机器视觉工作原理与功能 机器视觉工作原理主要为通过包括工业相机与工业镜头的机器视觉产品捕捉被检测物品的图像,并将其信息转换为图像信号,随后将传送至图像处理系统的亮度、颜色以及尺寸等信息转化为数字信号,机器视觉系统最后将此类信号进行计算以抽取目标特征并利用其运算结果控制现场设备。 图1:机器视觉系统构造 资料来源:《2022年中国机器视觉产业发展白皮书》,民生证券研究院 机器视觉在智能制造领域应用广泛,按功能主要分为四大类:定位、识别、测量、检测,目前在工业应用中以检测功能为主。 功能 介绍 在工业应用场景占比 定位 机器视觉应用的第一步是根据一定的模板在相机视野中找到相对应的对象或特征,关注对象的定位是否符合相应标准。如模式匹配软件工具无法精确定位图像中的零件,则无法进行识别、引导、检测或测量。定位功能主要应用于加工设备工具端的路径引导,是工业机器人重要的辅助性功能。 16% 表1:机器视觉的四大功能 首先,光学字符识别(OCR)系统通过工业相机扫描对象或特征,传输至PC主机;然后,由字符验证(OCV)系识别统确认相对应的字符串是否存在。此外,机器视觉系统还可以通过定位具体图案来识别零件种类或根据颜色、 形状识别物品。在工业应用场景中,物流标签读取和字符识别是识别功能最直接的服务对象。 24% 测量距离和位置以评估是否符合规格。测量应用中的机器视觉系统可以计算并测量对象上两个点、多个点甚至 测量 几何位置之间的距离以确定这些测量是否符合规格。如不符合标准,视觉系统向机器控制器发送失败信号,触 发拒绝机制,并将对象从生产线上弹出。在工业应用场景中,测量功能主要应用于对目标物体的高速、高精测 量,特别适合复杂形态测量。 10% 检测是对识别、测量、定位功能的集成和深度应用,主要表现为通过使用机器视觉技术对目标物体进行缺陷检测, 在产品质量一致性控制和成本控制上发挥着重要作用。 资料来源:《中国工业机器视觉产业发展白皮书(2021)》,民生证券研究院 1.1.2机器视觉产业链 机器视觉产业链上游为光源、工业镜头、工业相机等核心硬件及图像处理软件的供应商;中游为产业链核心价值环节,以工业视觉设备厂商、系统厂商、综合视觉厂商为主;下游应用领域众多,包括电子、汽车、半导体、机器人、医疗设备等。 产业链上游的工业镜头相机、图像采集卡等核心零部件与算法软件是机器视觉价值最高的部分,其成本占据工业视觉产品总成本的80%。尤其是在工业镜头、工业相机、底层软件系统等技术壁垒高、利润率高的部分,康耐视和基恩士等国外企业有着深厚的研发技术积累,具备软硬件的技术优势,占据了绝大部分市场,且毛利率较高。国产工业镜头目前在光学指标上已经具备一定竞争力,整体市场发展迅速,虽然大多厂商体量较小,但性价比优势明显,且镜头制作工艺已经能够满足视觉系统的基本需要,降低成本、国产化替代势头愈猛。 1.2机器视觉方案 1.2.1机器视觉的主流方案 工业机器人的视觉对其移动、操作有着重要决定作用,机器人手眼系统在工业领域有着广泛应用。根据成像单元安装方式不同,机器人手眼系统分为两类:固定成像单元眼看手系统(Eye-to-Hand)和随动成像单元眼在手系统(Eye-in-HandorHand-Eye)。眼看手系统是将视觉成像单元安装在本体之外的固定位置,不随机器人移动的一种系统,具有视线全面、控制简单、抗震性能好、姿态估计稳定等优点,但也存在分辨率低、容易产生遮挡问题等缺点。眼在手系统顾名思义即为视觉成像单元安装在机器人手臂末端的系统,摄像头随机器人一同移动,尽管会产生机械臂遮挡成像的问题,但有着空间分辨率高、有效克服标定误 50% 差等优点。有些场合也会采用两者混用的协同模式,通过眼看手系统负责定位,用眼在手系统负责定向和高精度操作。 除了根据位置进行分类,不同的原理也衍生出了不同的方案。3D视觉是机器人感知的最先进、最重要的方法,可以分为光学和非光学成像方法。目前应用最多的方法是光学方法,包括:飞行时间法、结构光法、激光扫描法、莫尔条纹法、激光散斑法、干涉法、照相测量法、激光跟踪法、从运动获得形状、从阴影获得形状,以及其他的ShapefromX等。 飞行时间法(TOF)主要利用信号在两个被反射面之间往返的飞行时间来测量节点间的距离,精度为厘米级,原理简单,模块体积小,测量距离范围较大,抗干扰能力较强。直接TOF(D-TOF)是探测器系统在发射光脉冲的同时启动探测接收单元进行计时,当探测器接收到目标发出的光回波时,探测器直接存储往返时间,通过光飞行时间测算目标距离,常用于单点测距系统。为了实现面积范围3D成像,通常需要采用扫描技术,无扫描TOF三维成像技术直到近几年才实现。间接TOF(I-TOF)方案中,时间往返行程是从光强度的时间选通测量中间接外推获得的,不需要精确的计时,而是采用时间选通光子计数器或电荷积分器,它们可以在像素级实现。I-TOF是目前基于TOF相机的电子和光混合器的商用化解决方案。 结构光投影三维成像目前是机器人3D视觉感知的主要方式。结构光成像系统是由若干个投影仪和相机组成,常用的结构形式有:单投影仪-单相机、单投影仪-双相机、单投影仪-多相机、单相机-双投影仪和单相机-多投影仪等。结构光投影三维成像的基本工作原理是:通过投影仪向目标物体投射具有特殊结构的图案(如离散光斑、条纹光、编码结构光等),使用另一个相机去观察在三维物理表面成像的畸变情况,再通过图像处理和视觉模型求出目标物体的三维信息。根据结构光投影次数划分,结构光投影三维成像可以分成单次投影3D和多次投影3D方法。 图2:iTOF成像原理图3:结构光投影三维成像图示 资料来源:欧菲光,民生证券研究院资料来源:BFT机器人,民生证券研究院 立体视觉字面意思是用一只眼睛或两只眼睛感知三维结构,一般情况下是指从不同的视点获取两幅或多幅图像重构目标物体3D结构或深度信息。目前立体视觉3D可以通过单目视觉、双目视觉、多(目)视觉、光场3D成像(电子复眼或阵列相机)实现。 单目视觉深度感知线索通常有:透视、焦距差异、多视觉成像、覆盖、阴影、运动视差等。在机器人视觉里还可以用镜像,以及其他shapefromX