SENAD VISION ROBOT平台
年初工信部等十七部门联合印发《“机器人+”应用行动实施方案》,提出到2025年,制造业机器人密度较2020年实现翻番,服务机器人、特种机器人行业应用深度和广度显著提升。方案强调深化商贸物流等重点领域“机器人+”应用,打造以机器人为重点的智慧物流系统,提升商贸物流数字化水平。SENAD融合10年行业经验,依托同济大学专家团队,自主研发的机器视觉低代码平台Vision Robot平台(VRDP),今日正式对外发布。该平台零编码就可以快速生成应用程序。极大降低开发及使用难度,“一站式”智慧部署,让机器人+行业的智能化应用便捷、高效、简单。
平台性能特点
·低代码模块化:模块之间通过信号流与数据流交互,使用拖拽组件和模型驱动的逻辑(搭积木模式)来完成软件设计,无需进行底层代码编写。
·行业应用丰富:平台已集成物流快递等行业无序分拣、拆码垛、单件分离、DWS、自动装卸货等应用场景,后续将不断增加其他行业应用。
·算法模块丰富:平台集成了SENAD-CV机器视觉算法引擎,拥有1000+算法子模块,包含了常用的视觉算法、机械臂算法、深度学习算法、手眼标定算法、称重算法、智能打标算法等。
·硬件灵活配置:平台可适配国内外各种主流品牌机器人。
·相机兼容性强:具有独立的图像编解码模块,将不同品牌相机的图像转化为标准图像格式进行算法处理。
·技术栈全覆盖:支持C/C++/C#/Java/python/JS等多种语言的图像数据接口。
·平台支持广泛:windows/android/Linux/Ubuntu/Unix/麒麟V10全平台支持。
·高效一键复用:模块通用、灵活,类似场景和应用可以重复利用,使开发效率显著提升。
·高精度真模拟:集成工业仿真系统,进行软件开发验证及方案改进。
·客户定制灵活:平台支持用户自定义模块,可以实现特殊场景的算法、特殊硬件的控制等定制化需求一键集成。
SENAD Vision Robot平台演示
平台融合3D视觉
视觉定位模块采用AI深度学习+3D点云分割的方案。利用RGBD相机实时对物体进行拍照,获取三维数据(深度图+RGB图)。定位处理流程如图,首先利用深度学习网络对RGB图进行2D图片切割,然后用这个2D图片切割点云,然后用点云计算出最优的抓取点坐标,最后利用预先获取到的手眼标定关系将视觉位置转换到世界坐标系下执行操作。
算法采用2D+3D联合视觉定位处理,具有精度高、鲁棒性强、抗环境光能力强、无惧深色物体的特点,能准确适用于各种箱体、包装盒、料盒、编织袋、工件等物件,且定位效果与精度不受物体摆放位姿的影响。
平台控制逻辑
3D相机负责获取物体的深度信息及高清2D图像,并将深度信息及2D图像信息发送给机器人控制平台软件,平台软件中内置3D视觉算法和智能轨迹规划算法,3D视觉算法通过AI深度学习+3D点云分割的方法将箱体在托盘或皮带线上的位置快速且准确的定位到,智能轨迹规划算法提供准确的抓取点位、放置点位和轨迹点位,引导机械臂快速抓取和码放动作。
为了客户更方便的自主规划垛控制系统,赛那德开发团队专门研发了一款轨迹控制规划SDK。软件采用图形化,无代码式的编程界面,简单易用。软件内置轨迹规划、碰撞检测及抓取规划等多种智能算法,同时软件可适配国内外各种主流品牌机器人。
平台轨迹规划
智能轨迹规划算法包含对拆垛流程及码垛流程的点位规划,如图所示,由拆垛分析/码垛分析决策出路径规划的终点构型,再依据感知信息、环境配置等进行碰撞检测,规划出一条安全的拆/码垛路径,其中,拆垛分析及码垛分析的大致流程如下:
放置分析是对由用户编辑或自动生成的垛型进行解码,并通过基坐标/托盘变换关系计算等对各放置位姿的代价进行评估排序,获得放置构型序列,并根据输入的放置索引及机械臂逆运动学位姿获得最终的放置构型,同时内部储存已码垛箱子信息用于路径规划过程中的碰撞检测。
赛那德以机器视觉技术为核心,通过AI算法、深度学习、图像处理、识别等技术手段与运动控制的深度融合,实现数据抓取、视觉定位、智能拣选等功能,替代工业生产、仓储和物流分选环节传统人工作业,达到“机器换人”。利用减少人工、提升生产效率、降低物流成本“一举三得”的生产力价值,解决“用工荒,用工贵,用工难”的问题,推动高端制造业实现智能制造。
我们在电商、零售、快递、仓储等领域有众多实际案例,除视觉引导拆码垛解决方案外,快递包裹供包、货品播种等物流行业典型方案也已批量落地,业务覆盖中国、美国、俄罗斯、新加坡、韩国、泰国、越南等国家,让全世界的物流业和制造业享受中国科技的成果!