技术博客

Clearpath Robotics是一家好公司(一)

​前言

自从Mobilerobots公司退出了科研机器人的历史舞台后,进口科研机器人平台的接力棒就由Clearpath Robotics这家公司拿下了,但在2014年之前,我们在国内还比较少能看到这个品牌的机器人。后来国内代理商换了好几拨,到现在官方授权的公司就剩下两家了(对,我们是代理商之一)。

今天我就来给大家讲一讲Clearpath这家公司的故事。

Clearpath成立于2009年,由加拿大滑铁卢大学的四名08~09年的本科毕业生所成立的,当初Clearpath这个名字的来源就是为了机器人能够在战乱地区进行排雷,但是09年爆发了金融危机,后来他们就把军事应用机器人的方向转为了给科研领域提供稳定可靠的移动机器人平台,创立之初只进行了少量的融资,主要还是想通过自身业务做到每一个阶段的盈亏平衡。

2012年的时候,Clearpath的CTO——Ryan Gariepy加入了开源机器人基金会(Open Source Robotics Foundation)创始董事会。这时候,ROS就开始在国外蓬勃发展,Clearpath所有系列的机器人都是基于ROS开发的,某种程度上来说,也是ROS的发展带来了Clearpath早期良好的销量和知名度。在基于ROS的机器人中,Clearpath的代码是写得最为规范的公司之一。

14年的时候,Willow Garage彻底关闭,而Clearpath接管了对Pr2的维护,也算是实现了ROS的传承。

16年,Clearpath成立了子公司——OTTO Motors,这家公司主要负责研发生产制造面向工业的移动机器人,开启了它们迈向工业的步伐。

融资

   Clearpath Robotics一共进行了5轮融资,一共筹集了41.6 百万美元。

Clearpath面向工业的子公司OTTO Motors也表现不俗,在2020年获得了一次性$29M的C轮融资。

产品线

Clearpath Robotics, Inc.拥有两个品牌,一个是09年成立Clearpath Robotics,一个是16年成立的OTTO Motors,前者主要研发制造科研教育机器人以及承接一些特殊定制项目,后者主要面向工业领域生产基于激光导航的移动机器人。

Clearpath产品线分为室外与室内。

室外移动机器人平台包括:

图2中负载依次减小,价格依次降低(从左到右)。其中在中国卖得比较多的还是jackal和husky。现在你能看到的很多移动操作机器人平台,都是用的husky作为底盘。

室内机器人平台包括:

室内的平台中,BOXER是不能销售到国内,Ridgeback国内存量也不多,而Dingo是19年新出的一款产品,2020年9月正式开始对外销售。Dingo有差动轮版本和全向轮版本,大家可以期待一下,这种形态的产品现在并不多见。

    OTTO产品线中,分为负载100kg、750kg以及1500kg,还未开始在中国出售,但是基于这三款机器人的周边设备和工业应用较为完善,感兴趣的可以去搜索一下。

特点与优势

Clearpath在全球科研市场占有率非常高,主要原因如下:

产品稳定可靠

我有一次和朋友聊到他对移动机器人的需求的时候,他说:“我就是想简简单单跑个验证算法,不出错就行。”但是他们也试过别的品牌的移动机器人,但大量的低效能时间,让他们的实验进程大打折扣,如重新设置调试底盘参数,又或是不断碰到硬件小毛病,我们作为机器人的生产商、服务商,同时也是使用者,试过大量的国外机器人底盘和国内一些厂家的底盘,使用一圈下来后都不太省心。虽然无伤大雅,却因为很多小错误而加了不少班,也就是Clearpath 的产品算是省心的了,这也难怪他们不会陷入一种产品利润都被售后吃光了的死循环中。稳定可靠看似简单,但都是基于产品迭代的。从使用者角度长时间不断迭代硬件的产品在整个市场上都是稀有的,这真的是看公司基因。我见过的很多硬件产品,急于进行弯道超车,然而却因为路径过度依赖或无法主动面对错误,导致产品问题随着时间积累越来越深,最后变成根本没法改,改就是牵一发动全身的问题。硬件迭代有周期,匠人精神都是拿钱和时间堆出来的。

手册教程齐全,代码规范

国外的用户有很好的阅读手册的习惯,因此像是欧美的机器人公司,相应的文本文档都非常丰富,用户通过现有的公开文档就能上手使用机器人,极大地降低了售后成本。

基于此平台的论文数量丰富

正因为这个平台还算好用,所以基于Clearpath的机器人论文非常多,也造成了一定的品牌溢价效应,大家对这个牌子的信心慢慢就积累起来了。

在智科特工作是一种怎样的体验

众所周知的是,做机器人是需要机械、软件、电子一锅烩的。因此,工作中一定会面临许多千奇百怪、毫无头绪甚至有些哭笑不得的问题。

如果是一个正常机器人公司可能遇到的甩锅链:

销售同学:同学们,客户又发飙了啊,这个软件老崩啊!

软件同学:不是我的问题,我很完美的,硬件设计那边就限制成这样。

硬件同学:硬件怎么会有问题,这都第五版了,我的设计完美无瑕,肯定是生产那边没装好。

生产同学:我这都是祖传装配了,供应链买啥我装啥,完美如我,你们要问就问供应链去。

供应链同学:我TM都查了八百遍了,次次都用他们家的,我这么完美,你们销售客户关系没做好就是没做好,我是不出错的。

但是很幸运,我们公司不是这样的!智科特机器人是一股清流。在智科特,只会出现的一种情况就是:

老板的锅,不完美的只有老板

喜迎劳动节,我们市场部把以前的视频拿出来剪了一版凑本月绩效,这个视频主要体现了我们完美的公司文化,希望大家喜欢:

移动操作机器人(二)

从1996年开始,法国的LAAS-CNRS开发的Hilare 2bis移动操作机器人到现在,已经过了24年了。

得益于ROS(Robot Operating System)的发展与计算机算力的提高,现在我们进行移动操作机器人研究的时候,已经不用花大部分的时间在工程化工作上了,可以花更多的精力在上层算法的开发,那现在有哪些好玩的研究方向呢?我们找了些案例分享给大家:

#运动控制策略#

移动操作机器人的控制分为:分散控制与集中控制,前者是把移动机器人和机械臂看作是两个子系统分别控制,后者是整体看作一个系统,比如全身控制(whole-body control)。

#多机器人协同操作#

使用多台移动操作机器人去完成复杂的任务流程,比如就像两个人抬杠。

#主动感知与抓取#

移动操作机器人进行环境建模,通过自主感知,寻找定位物体后进行物体抓取。

#模仿学习与示教#

通过人类的示教,机器人可以模仿与学习人类的操作,从而使自己的行为更加多样性。

这些知识只是移动操作机器人研究领域的冰山一角,如果大家有什么更好玩儿的研究方向,欢迎在后台给我们留言~

当我们在用移动操作机器人的时候,他能用在哪里

机器人产业作为工程研究的产物,目前产业界的需求一定程度上在反向推动机器人研究的进展和指引方向。

移动操作机器人不像工业机械臂可以长时间重复高精度地完成同一动作,也不像物流机器人可以完全高效快速的完成货物的运输和分拣,但他比目前任何一种市面上的机器人更接近人的工作方式和感知能力,因此在一些商业案例中,以移动操作机器人为核心,替代人类、协助人类的解决方案,让我们看到更多可能性:

有一个概念叫做长尾理论,简单的说就是:商家通过增加商品门类和品质,进入细分市场,专注区分消费者的差别来满足顾客偏好,致力于大多数客户的个性化需求,最后通过整合细分市场,引导用户去探索自身潜在需求,通过用户的个性化需求拉动产品消费。整合不同消费者需求的共同之处来重新定义自己的产品。

上面的图可以看到,当商家增加货物品类,销售的细分市场可以随时时间打开,原有的非热门产品,可以增加销售,拓展市场份额。

那么对于电商带来的核心问题就是:如何管理这些处于长尾部分的产品仓库和分拣任务?

方案一:把低速SKU(Stock Keeping Unit)并入原有的自动化分拣系统

方案引入问题:改造成本高,人工工作量大,由于出货量低,影响整体出货分拣效率。

方案二:人工分拣配合自动化分拣

引入问题:产品众多,分拣人员的工作强度高,每天都在马拉松,单品投入产出比低。

方案三:一个以移动操作机器人为核心的分拣系统

使用移动操作机器人:一种和人的感知与工作方式最接近的机器人,通过定制化的物流软件,商家可以更好的对长尾产品进行管理。提供细分市场,提供更细分化的仓库管理,从而进行提升销售额和销售利润。

但是方案三的核心还需要移动操作机器人的ROI(投资回报比)尽可能低,国外一般的投资回收时间是3~4年。国外机器人厂家在2015年左右就开始做这个方向的尝试,也取得了一些亮眼的成果。

由于国内市场多样化、个性化的购买需求正在迸发中,因此柔性化的仓储建设肯定会像国外一样随之而来。相信到时候一定会有一部分国产的移动操作机器人厂家能够从中脱颖而出,MAKE MONEY!MAKE IT RAIN!

移动操作机器人(一)

西西弗斯机器人

从事富有创造性和意义感的工作,有助于防治抑郁。反过来一想,在无止境且无新意的劳动:比如收拾屋子、刷锅洗碗、来回打转、工作中的重复劳动,就会难免让现在的年轻人感觉在浪费生命。

我们每一代人的努力创作与工作,都希望下一代能够有更多的人,不再像西西弗斯一样,永无止境地做着无望的劳动。

“诸神认为再也没有比进行这种无效无望的劳动更为严厉的惩罚了。西西弗斯的生命就在这样一件无效又无望的劳作当中慢慢消耗殆尽。”

MOMA的构成

因此,我们来跟大伙儿聊聊MOMA,一种有可能在未来二十年解放大部分人类重复劳动的机器人。

MOMA,全称是Mobile Manipulator,中文习惯称为“移动操作机器人”,也叫移动机械手(臂)、移动抓取机器人或者复合机器人。

用维基百科的话说,移动操作机器人,就是由移动平台与安装在上面的机械手,组成的整体系统。

移动机器人+机械臂+工具+视觉,就成为了移动操作机器人。

把“腿”、“臂膀”、“手”、“眼睛”放到一块,当然还要加点脑子,这就有人样了:能在广阔的空间里活动,看到要做的事,移动到目的地,把任务完成。

MOMA走入工厂

或许有朋友觉得,这样的机器人才有“人味儿”?

外形亲和当然很美妙,但现实中优先考虑的,还是能听话、能出活。

在工业领域,移动操作机器人已有了广泛应用,同样是“移动+机械臂+工具+视觉”的核心组成,配合具体用途,呈现出多样的最终形态:

在户外,可以长得像坦克,也可以像狗子。

轻型机械臂,搭配不同的“下半身“——轮子、履带或腿足式,便能对应平整程度各异的地面条件。

到了室内场景,可能需要更强健的臂弯,或者更大大负载,或更灵活的腿脚(全向轮),根据需求,什么样的办法我们都能找到。

MOMA走入家庭

对于家庭场景,短期内由于成本和智能化的限制,也许不会那么快普及,但是根据各个研究所的现阶段研究,我们已经能看到家用实用型机器人的曙光了。

丰田研究院在2012年发布了家庭服务机器人HSR(HumanSupport Robot),旨在帮助残疾人在家中完成一些日常任务,现在已经开始广泛地落地试点,做实用型测试。

下面是一段来自HSR家务整理的视频:

进入一片杂乱无章的房间,一段时间后就能把它整理好,这对于机器人是非常不简单的。这台机器人首先要主动感知各种物品,在视野里识别到它们,移动到位后,给机械臂发送指令。

机器人脑袋里需要计算得出的物体位置与朝向,知道要按什么角度伸出机械臂,还需要判断出五花八门的东西怎么取放:抓住还是吸起来?拿起来之后,需不需要小心轻放?是插进笔筒、放进洗衣筐,还是扔进垃圾桶?

东西运到半路,听到“你去把另外那个啥收拾了”的要求,还懂得先回复“等我把手上这个弄完就做”。训练一个听话的小朋友完成这些,所需时间可能都要按年计算。在机器人身上实现,则更需要多种软硬件的协同。

作为家用机器人,外形设计上也尤其需要注意,不要陷入机器人恐怖谷:

左图:丰田HSR,右图:随便搜服务机器人让你感受creepy

机器人恐怖谷:由于机器人与人类在外表、动作上相似,所以人类亦会对机器人产生正面的情感;直到一个特定程度,他们的反应便会突然变得极为负面。哪怕机器人与人类只有一点点的差别,都会显得非常显眼刺眼,整个机器人显得非常僵硬恐怖,使人有面对僵尸的感觉。可是,当机器人和人类的相似度继续上升,相当于普通人之间的相似度的时候,人类对他们的情感反应会再度回到正面,产生人类与人类之间的移情作用。

下面我们来看看丰田HSR有哪些重要部分:

移动机器人部分(“下肢”):本体、激光雷达。有时还会增加超声波传感器(用于反光物体的避障)、碰撞传感器(触发物理碰撞后急停)、底部深度相机(拓展低位视觉)。

机械臂部分:本体、力矩传感器、末端手眼系统、夹持器和真空吸盘。

躯干部分:可升降躯干、IMU模块、状态显示LED、急停开关。

头部:可控旋转云台,搭载双目相机、宽幅相机、深度相机、用户交互显示屏和麦克风阵列。

不容丝毫失误的控制力和稳定性,是工业场景对移动操作机器人的最大挑战之一;而在民用环境,对精度的要求就不再如此严苛。毕竟,我们人类能够精确地捻起每一根头发丝,靠的不是本身手臂精确的控制,而是手与眼相配合,不断动态调整我们手臂动作从而完成工作。

也因此,当视觉伺服更加成熟,无需配备控制柜的轻质机械臂,能根据“看到”的东西,做出每一个行动。那时的移动操作机器人,如何参与到我们的日常生活中,有着无限畅想的空间。

移动操作机器人的实用化过程,和别的技术一样,是从军事用途、工业用途、商业用途最后才过渡到家庭用途。现在是处在工业应用阶段,5~10年后就会在商业应用上看到它,再有20年,它们就能够走入家庭。

或许未来某天,我们跟机器人共处时会想到:他们是家电?是帮手?或是家人?

《夏娃的时间》剧照

「智科特评测」事件相机

大家好。

这是我们第二期的机器人评测,今后,我们将多去尝试一些好玩的传感器和机器人,希望大家多多捧场。如果大家有什么新的传感器信息,也欢迎大家后台留言跟我们分享。

本次,由田野同学来给大家介绍事件相机,以及这种传感器用在机器人上会有哪些优势。

如果大家想测试这种相机,也可以去下载ESIM(an Open Event Camera Simulator),事件相机模拟器。

下表是三款事件相机的主要参数,供大家参考:

产品DVXplorer LiteDAVIS 346DVXplorer
分辨率 320×240 346×260 640×480
时间分辨率
典型延迟 <1ms <1ms <1ms
动态范围 90dB 120dB 90dB
带宽 100MEPS 12MEPS 165MEPS
功耗<140mA <140mA <140mA
尺寸40×60×25mm40×60×25mm40×60×25mm
质量75g100g100g
主要接头 USB 3.0 micro USB 3.0 micro USB 3.0 micro

感谢大家的阅读。

UR和MiR的2019年财报发布啦

一个小铺垫

众所周知的是,UR(Universal Robots)是协作机械臂的始祖,而MiR(Mobile Industrial Robots)是协作移动机器人的生力军。

图为哥俩相似之处


也同样广为人知的是,泰瑞达在2015年5月以2.85亿美元收购了UR,在2018年4月以1.48亿美元和1.24亿美元对赌,收购了MiR。

图为两家老板握手

作为这两家公司的间接股东以及精神股东,看到他们在今年3月份发了2019年财报,周末就学习了一下他们如何做到这么成功的。

数据方面是以丹麦克朗计价,与人民币汇率为1:1.058。

以下只是数据分享,不做分析。

UR部分

UR主要财务数据

关键数据:营业收入16.58亿,同比增长12.13%。年度净损益2.13亿,同比减少3.55%。资产总额为9.22亿,同比增长12.01% 。

MIR部分

MIR主要财务数据

关键数据:没有营业收入数据,往年财报也没有。年度净损益472.3万,去年是3365.5万。资产总额为1.77亿,同比增长25.6% 。

图为管理层评论

一些数据

我统计了简单数据做了些图片,供各位看官参考,更多信息可以去丹麦的网站上下载他们的财报,都是公开的。

DAVIS 346 事件相机上手测试

事件相机简介

事件相机,简单来说就是只有当镜头中像素亮度变化才会触发信号的相机,而传统相机是固定帧率采集图像。

说得大白话一点就是,只有运动才看得见,不动就是一片黑色。这样的好处其实也很明显,就是响应快、低功耗,特别是在做动态物体捕捉的时候,有着先天的优势。知乎上有很多科普事件相机的文章,大家感兴趣的可以去搜一下。

事件相机的使用

这次我们测试的是Davis 346 Color,这是Invitation公司出最新款的产品,这次到货之后看起来还像那么回事了,那个红色的就是相机本体:

下面我们就来讲讲大概怎么用。

#Ubuntu下的dv-gui使用#

官方提供了Windows,Ubuntu,MacOS等多平台的支持,这里我们使用的是Ubuntu 16.04的环境。下面是安装过程:

1. 添加PPA存储库以获取程序及依赖项,打开一个终端,运行下面的命令

sudo add-apt-repository ppa:ubuntu-toolchain-r/test
sudo add-apt-repository ppa:lkoppel/opencv
sudo add-apt-repository ppa:janisozaur/cmake-update
sudo add-apt-repository ppa:inivation-ppa/inivation

2. 更新软件包索引

sudo apt-get update

3. 安装dv-gui

sudo apt-get install dv-gui

4.(可选)如果打算自己做开发,可以安装开发包

sudo apt-get install dv-runtime-dev

5.连接好事件相机,运行dv-gui

dv-gui

事件相机

#ROS下的使用#

ROS下我们使用的是rpg_dvs_ros包,下面是它的安装与使用过程:

1. 安装依赖项

sudo apt-get install libusb-1.0-0-dev
sudo apt-get install ros-kinetic-camera-info-manager
sudo apt-get install ros-kinetic-image-view

2. 安装编译工具

sudo apt-get install python-catkin-tools

3. 创建工作区

mkdir -p ~/catkin_ws/src
cd catkin_ws
catkin config –init –mkdirs –extend /opt/ros/kinetic–merge-devel –cmake-args -DCMAKE_BUILD_TYPE=Release

4. 克隆存储库

cd ~/catkin_ws/src
git clone https://github.com/catkin/catkin_simple.git #该软件包用于构建DVS/DAVIS驱动程序
git clone https://github.com/uzh-rpg/rpg_dvs_ros.git

5. 编译

cd ~/catkin_wscatkin build dvs_ros_driver #如果使用的是DVS,catkin build davis_ros_driver #如果使用的是DAVIScatkin build dvs_renderer #编译渲染器catkin build dvs_calibration dvs_calibration_gui #编译校准工具

或者可以运行

$ catkin build

一键编译所有软件包。

6. 添加串口 udev规则

cd ~/catkin_ws/src/rpg_dvs_ros/libcaer_catkin #进入libcaer_catkin文件夹sudo ./install.sh #运行安装脚本

7. 连接好事件相机,运行

source ~/catkin_ws/devel/setup.bashroslaunch dvs_renderer dvs_mono.launch #如果使用的是DVSroslaunch dvs_renderer davis_mono.launch #如果使用的是DAVIS

#基于事件的角点检测#

该算法基于的论文《FastEvent-based Corner Detection》,其实现了基于事件的快速角点检测。代码地址,下面是运行过程:

1. 安装依赖项

sudo apt-get install libeigen3-dev

2. 克隆存储库

cd ~/catkin_ws/srcgit clonehttps://github.com/uzh-rpg/rpg_corner_events.git

3. 修改

由于我们使用的是DAVIS346,其像素为346 x 260,故要修改distinct_queue.h,,fast_detector.h 和 harris_detector.h 中的**sensor_width_ ** 和 sensor_height_,如下图:

4. 编译

cd~/catkin_ws/src/rpg_corner_events/corner_event_detector
catkin build –this

5. 运行

source ~/catkin_ws/devel/setup.bash
roslaunch corner_event_detector davis_live.launch

事件相机

后记

现在国内做事件相机研究的人还不多,大家可以多关注一下,可以和机器人碰撞出很多新的应用。如果想买的话,欢迎给我们充值~

现在国内做事件相机研究的人还不多,大家可以多关注一下,可以和机器人碰撞出很多新的应用。如果想买的话,欢迎给我们充值~

事件相机资源整理:https://github.com/uzh-rpg/event-based_vision_resources
事件相机开发文档:https://inivation.gitlab.io/dv/dv-docs/docs/getting-started.html
谢谢大家!

智科特社区消毒小哥上岗了!

天暖了,复工也几周了。街上的人和车,肉眼可见地多起来。毕竟,病毒是要防的,同时社会总是要转动的。经此一疫,办公场所和社区的消毒,成了每天都必不可少的功课。这个活,得走很多路,穿过不定漂浮着什么的空气。要威力足够地消毒,又不能过头了留下污染,就得把精确定量的动作,重复不知道多少遍。

不能变形,不能嫌烦。还得专挑大伙儿都离开了的时候干。

这不都是机器人的天赋吗!

于是,我们和清华大学的老师一起合作,给Caster移动机器人搞了个紧急特训,配备主动摄像机、激光雷达等多模态传感器以及紫外线消毒外设装备。

装备完毕的Caster是这个样子的:

光滑无毛的圆润头顶,一看就是中关村土生土长的娃,亲切。

立刻投身社区防疫的第一线,每晚兢兢业业刷地图。定好了要走到的边边角角,一个都不放过。通过主动感知技术,进行区域消杀工作。

不用鞋,不用夜宵,更重要的是,口罩和防护服这种战略物资,都省下来了。

夜色中独自巡航的冷色光线,沉稳、可靠,秃中带炫。

紫外线扫过之处,可以杀灭99.9%以上的病原微生物。每天提供清洁健康的环境,让小伙伴们安安心心来搬砖,为国奋斗几十年。

忙过眼前这波,下一步教Caster一点什么呢?比如,把更多消毒方式的技能给点亮?比如,给它添加更多模态的传感器?

其实,不论什么病毒,即使曾经不为人知,也是地球生态由来已久的一环。希望它彻底绝迹,愿望美好,但未必现实,更不一定收益成本相抵。就像与其他病原体曾达成的平衡那样,人类大概率会走向一个与新冠病毒共存的未来。

机器人消毒员和我们的并肩战斗,才刚刚开始呢。

又双叒叕一台移动抓取机器人

客户研究领域:场景识别与物体抓取 

解决方案:

本次项目使用Aruco的标记检测方法来获取物体位姿。Arucomarker是一个二进制平方标记,它由一个宽的黑色的边界和一个内部的二进制矩阵组成,内部的矩阵决定了它们的id。此方法易用并且准确度较高。黑色的边界有利于快速检测到图像,二进制编码可以验证id,并且可以应用错误检测和校正技术。

我们会根据需求提前打印出marker,并贴在被抓取物体,通过realsense获得图像信息,对marker进行检测,将获取的位姿给到机械臂末端,完成移动抓取。

设备清单:

设备名称用途
移动机器人 Mir 100 为机器人提供向前向后的移动功能、避障功能、导航功能、自主完成建图
机械臂 Kinova jaco2 7dof 7自由度机械臂,在三维空间移动
末端夹爪 Kinova 3 fingers 安装在机械臂末端,提供抓取力
相机 Kinect 2
Realsense
获取深度图像和RGB图像
通过识别二维码确定物体位置
云台 ELF-pan tilt 扩大视觉相机的水平和俯仰角度
激光雷达 Sick S300 用于建图和导航

硬件部分:

机械结构这部分,随着项目的积累,很多框架可以之前的基础上稍加修改,直接送去加工厂加工,给整体项目节约了时间。

软件部分:

(1)调试:

为适应移动抓取相对较高的精度要求,从建图、定位以及导航各环节进行测试优化,将定位精度控制在可用范围。调整机械臂在移动、观察、以及抓取过程中的位姿,避免移动中机械臂的磕碰,并确保Realsense在抓取过程中具有良好的视野,同时良好的视角可以弥补导航精度不足的问题。适当选用一些规划中间点,以及给机械臂关节速度、角度的限制,使臂的规划能够在尽量小范围内完成,更接近于理想状态。优化抓取流程,使整个过程更加流畅。

(2)组装ROS包:

  • 机器人模型的整体构建
  • Mir_robot功能包的版本适配
  • 定位导航功能
  • Moveit!的配置
  • 移动抓取demo


下面是我们给甲方爸爸做的演示demo:


客户培训现场:

此次培训内容包括:

  • 机器人结构:组成部分,以及各组成部分的参数、特点、功能、注意事项;
  • 基础操作:MirWeb系统的使用,Kinova手控器以及SDK的使用;
  • ROS功能:各ROS的功能以及使用、模型、Rviz显示;
  • 移动抓取Demo:根据现场场景修改并演示,讲解使用修改流程;
  • 使用安全规范:接口、上电顺序等;
  • 指导现场使用。


又一例移动抓取机器人的杂碎体验

最近我们又做了一例移动抓取机器人,这次项目主要负责的工程师是闫磊,以下是一些碎碎念:

一、项目配置

移动抓取机器人的主要构成有以下:

这次我们移动机器人选择的是Mir100,机械臂选的是UR3,处理器选择的是索泰的带1060显卡的版本,激光雷达是sick、摄像头是realsense,末端夹持器是robotiq的二指。

二、项目开发周期

项目从今年7月中的时候正式启动,8月中执行完毕,开发时间如下:

机械部分:主要分为机械设计(支架图纸设计)、加工以及组装几个内容。这部分耗费的时间最长,花了3周的时间,其中设计1周,等加工件回来差不多2周,组装差不多就两天的时间。

电气部分: 由于客户不想将UR机械臂的控制柜改为直流,所以我们选择了使用逆变器,将Mir电池24V的电压逆变为220V交流,然后直接给机械臂去供电。PC方面使用了一个大功率的DC/DC将24V降压为19.5V去供电。末端夹持器的供电则直接使用了UR控制柜中的24V直流输出。由于整体的供电逻辑比较简单,所以这部分花了差不多2-3天就搞定了。

软件部分:为了方便用户开发,需要我们在ROS下将各个部分的组件攒在一起,有些部件没有ROS下的驱动,我们还得去开发一下,大概耗时1周。

下面说一下其中遇到的坑:

首先,图纸送去加工厂制作,来回一共出了3个意外。。。。

第一次,铝合金板件比事前约定的时间延迟了1个周。

第二次,型材孔位的位置打错了,返工。

第三次,板件的尺寸搞错了,返工。

三、项目经验

本项目采用的设备跟之前做过的一个抓螃蟹的项目很相似,之前是Mir100和Ur5,这次是Mir100和Ur3,除了电气部分之外,有些软件和硬件上的东西是通用的。所以本次项目更加注重细节部分,在原来的基础上改进了用户体验度。比如说:支架拆装更加方便了,重量也下降了,供电及走线更加安全合理了等

四、杂七杂八的Q&A

Q1: 最终用户是要用在什么的场景?

本次项目的最终用户是机器视觉领域实力很强的研究所。

他们想做的场景是动态物体捕捉后,移动抓取机器人根据视觉数据去执行相应反馈,比如识别这个物体的运动轨迹,然后机械臂和移动机器人做相应的反馈,去击打或者抓取物体。

Q2: 整个集成过程中一共分为几个部分?工作量主要集中在哪里?

一般机器人集成分为硬件、软件、电气三个部分。

硬件部分,我们要考虑移动机器人、机械臂、各种传感器和机器人的控制器整体的布置、机械臂是否会倾覆、如何配重等问题,最后就是加工结构件和连接件。

软件部分,我们整体是基于ROS做,有的传感器没有ROS驱动,我们会写相应的驱动,还有就是仿真部分的模型以及整体组包。

电气部分,要考虑到所有组件的供电以及机械臂的供电,机械臂一般是交流供电,底盘是直流输出,这里会有一个逆变的部分。另外就是整体电气安全设计也要考虑到。

Q3: 你觉得针对该集成还能够落地的场景有哪些?

其实移动抓取机器人现在落地的场景还不是很多。半导体行业会占主导,主要也是因为半导体行业能出的起这个钱。随着移动抓取机器人的价格慢慢的降低,我相信有更多的场景能够落地,现在我们也见到了国内的一些新的创业公司在一些细分领域场景有了新的案例,这是一个很好的现象。

我们觉得符合以下特性的场景都可以使用移动抓取机器人:

1.工作站形式

2.整体节拍要求不高

3.目标物体为单件的形式

4.整体成本降低

因为移动抓取既有移动机器人的转运能力,也有机械臂的操作能力,整体功能很靠近人类了,如果有一家企业可以把价格做到三十万以内,易操作部分再下一些功夫,一定能够大卖。

Q4: 作为一个机器人工程师,完成一个项目需要具备什么样的能力?

我觉得第一就是沟通能力,机器人工程本身有着多学科交叉的特性,所以工程上涉及到的人很多,很难说是成为一个独立开发者。良好的沟通能力是一个机器人工程师的必备素质。

另外技术这方面,机器人工程师掌握的技术点会很杂,软、硬、电都要涉及,机器人就是个集成性创新的产业。

当然,每一个工程师都会有一定的偏向,可能软件更强一点,可能硬件更强一点,但实际上大家都有全面的技术背景知识,所以一个好的机器人工程师需要很多年月去磨练,才能从实践中积累到相应的“技术体验”。也基本上很难通过培训机构,批量化产出这方面人才。


12