技术博客

在智科特工作是一种怎样的体验

众所周知的是,做机器人是需要机械、软件、电子一锅烩的。因此,工作中一定会面临许多千奇百怪、毫无头绪甚至有些哭笑不得的问题。

如果是一个正常机器人公司可能遇到的甩锅链:

销售同学:同学们,客户又发飙了啊,这个软件老崩啊!

软件同学:不是我的问题,我很完美的,硬件设计那边就限制成这样。

硬件同学:硬件怎么会有问题,这都第五版了,我的设计完美无瑕,肯定是生产那边没装好。

生产同学:我这都是祖传装配了,供应链买啥我装啥,完美如我,你们要问就问供应链去。

供应链同学:我TM都查了八百遍了,次次都用他们家的,我这么完美,你们销售客户关系没做好就是没做好,我是不出错的。

但是很幸运,我们公司不是这样的!智科特机器人是一股清流。在智科特,只会出现的一种情况就是:

老板的锅,不完美的只有老板

喜迎劳动节,我们市场部把以前的视频拿出来剪了一版凑本月绩效,这个视频主要体现了我们完美的公司文化,希望大家喜欢:

移动操作机器人(二)

从1996年开始,法国的LAAS-CNRS开发的Hilare 2bis移动操作机器人到现在,已经过了24年了。

得益于ROS(Robot Operating System)的发展与计算机算力的提高,现在我们进行移动操作机器人研究的时候,已经不用花大部分的时间在工程化工作上了,可以花更多的精力在上层算法的开发,那现在有哪些好玩的研究方向呢?我们找了些案例分享给大家:

#运动控制策略#

移动操作机器人的控制分为:分散控制与集中控制,前者是把移动机器人和机械臂看作是两个子系统分别控制,后者是整体看作一个系统,比如全身控制(whole-body control)。

#多机器人协同操作#

使用多台移动操作机器人去完成复杂的任务流程,比如就像两个人抬杠。

#主动感知与抓取#

移动操作机器人进行环境建模,通过自主感知,寻找定位物体后进行物体抓取。

#模仿学习与示教#

通过人类的示教,机器人可以模仿与学习人类的操作,从而使自己的行为更加多样性。

这些知识只是移动操作机器人研究领域的冰山一角,如果大家有什么更好玩儿的研究方向,欢迎在后台给我们留言~

当我们在用移动操作机器人的时候,他能用在哪里

机器人产业作为工程研究的产物,目前产业界的需求一定程度上在反向推动机器人研究的进展和指引方向。

移动操作机器人不像工业机械臂可以长时间重复高精度地完成同一动作,也不像物流机器人可以完全高效快速的完成货物的运输和分拣,但他比目前任何一种市面上的机器人更接近人的工作方式和感知能力,因此在一些商业案例中,以移动操作机器人为核心,替代人类、协助人类的解决方案,让我们看到更多可能性:

有一个概念叫做长尾理论,简单的说就是:商家通过增加商品门类和品质,进入细分市场,专注区分消费者的差别来满足顾客偏好,致力于大多数客户的个性化需求,最后通过整合细分市场,引导用户去探索自身潜在需求,通过用户的个性化需求拉动产品消费。整合不同消费者需求的共同之处来重新定义自己的产品。

上面的图可以看到,当商家增加货物品类,销售的细分市场可以随时时间打开,原有的非热门产品,可以增加销售,拓展市场份额。

那么对于电商带来的核心问题就是:如何管理这些处于长尾部分的产品仓库和分拣任务?

方案一:把低速SKU(Stock Keeping Unit)并入原有的自动化分拣系统

方案引入问题:改造成本高,人工工作量大,由于出货量低,影响整体出货分拣效率。

方案二:人工分拣配合自动化分拣

引入问题:产品众多,分拣人员的工作强度高,每天都在马拉松,单品投入产出比低。

方案三:一个以移动操作机器人为核心的分拣系统

使用移动操作机器人:一种和人的感知与工作方式最接近的机器人,通过定制化的物流软件,商家可以更好的对长尾产品进行管理。提供细分市场,提供更细分化的仓库管理,从而进行提升销售额和销售利润。

但是方案三的核心还需要移动操作机器人的ROI(投资回报比)尽可能低,国外一般的投资回收时间是3~4年。国外机器人厂家在2015年左右就开始做这个方向的尝试,也取得了一些亮眼的成果。

由于国内市场多样化、个性化的购买需求正在迸发中,因此柔性化的仓储建设肯定会像国外一样随之而来。相信到时候一定会有一部分国产的移动操作机器人厂家能够从中脱颖而出,MAKE MONEY!MAKE IT RAIN!

移动操作机器人(一)

西西弗斯机器人

从事富有创造性和意义感的工作,有助于防治抑郁。反过来一想,在无止境且无新意的劳动:比如收拾屋子、刷锅洗碗、来回打转、工作中的重复劳动,就会难免让现在的年轻人感觉在浪费生命。

我们每一代人的努力创作与工作,都希望下一代能够有更多的人,不再像西西弗斯一样,永无止境地做着无望的劳动。

“诸神认为再也没有比进行这种无效无望的劳动更为严厉的惩罚了。西西弗斯的生命就在这样一件无效又无望的劳作当中慢慢消耗殆尽。”

MOMA的构成

因此,我们来跟大伙儿聊聊MOMA,一种有可能在未来二十年解放大部分人类重复劳动的机器人。

MOMA,全称是Mobile Manipulator,中文习惯称为“移动操作机器人”,也叫移动机械手(臂)、移动抓取机器人或者复合机器人。

用维基百科的话说,移动操作机器人,就是由移动平台与安装在上面的机械手,组成的整体系统。

移动机器人+机械臂+工具+视觉,就成为了移动操作机器人。

把“腿”、“臂膀”、“手”、“眼睛”放到一块,当然还要加点脑子,这就有人样了:能在广阔的空间里活动,看到要做的事,移动到目的地,把任务完成。

MOMA走入工厂

或许有朋友觉得,这样的机器人才有“人味儿”?

外形亲和当然很美妙,但现实中优先考虑的,还是能听话、能出活。

在工业领域,移动操作机器人已有了广泛应用,同样是“移动+机械臂+工具+视觉”的核心组成,配合具体用途,呈现出多样的最终形态:

在户外,可以长得像坦克,也可以像狗子。

轻型机械臂,搭配不同的“下半身“——轮子、履带或腿足式,便能对应平整程度各异的地面条件。

到了室内场景,可能需要更强健的臂弯,或者更大大负载,或更灵活的腿脚(全向轮),根据需求,什么样的办法我们都能找到。

MOMA走入家庭

对于家庭场景,短期内由于成本和智能化的限制,也许不会那么快普及,但是根据各个研究所的现阶段研究,我们已经能看到家用实用型机器人的曙光了。

丰田研究院在2012年发布了家庭服务机器人HSR(HumanSupport Robot),旨在帮助残疾人在家中完成一些日常任务,现在已经开始广泛地落地试点,做实用型测试。

下面是一段来自HSR家务整理的视频:

进入一片杂乱无章的房间,一段时间后就能把它整理好,这对于机器人是非常不简单的。这台机器人首先要主动感知各种物品,在视野里识别到它们,移动到位后,给机械臂发送指令。

机器人脑袋里需要计算得出的物体位置与朝向,知道要按什么角度伸出机械臂,还需要判断出五花八门的东西怎么取放:抓住还是吸起来?拿起来之后,需不需要小心轻放?是插进笔筒、放进洗衣筐,还是扔进垃圾桶?

东西运到半路,听到“你去把另外那个啥收拾了”的要求,还懂得先回复“等我把手上这个弄完就做”。训练一个听话的小朋友完成这些,所需时间可能都要按年计算。在机器人身上实现,则更需要多种软硬件的协同。

作为家用机器人,外形设计上也尤其需要注意,不要陷入机器人恐怖谷:

左图:丰田HSR,右图:随便搜服务机器人让你感受creepy

机器人恐怖谷:由于机器人与人类在外表、动作上相似,所以人类亦会对机器人产生正面的情感;直到一个特定程度,他们的反应便会突然变得极为负面。哪怕机器人与人类只有一点点的差别,都会显得非常显眼刺眼,整个机器人显得非常僵硬恐怖,使人有面对僵尸的感觉。可是,当机器人和人类的相似度继续上升,相当于普通人之间的相似度的时候,人类对他们的情感反应会再度回到正面,产生人类与人类之间的移情作用。

下面我们来看看丰田HSR有哪些重要部分:

移动机器人部分(“下肢”):本体、激光雷达。有时还会增加超声波传感器(用于反光物体的避障)、碰撞传感器(触发物理碰撞后急停)、底部深度相机(拓展低位视觉)。

机械臂部分:本体、力矩传感器、末端手眼系统、夹持器和真空吸盘。

躯干部分:可升降躯干、IMU模块、状态显示LED、急停开关。

头部:可控旋转云台,搭载双目相机、宽幅相机、深度相机、用户交互显示屏和麦克风阵列。

不容丝毫失误的控制力和稳定性,是工业场景对移动操作机器人的最大挑战之一;而在民用环境,对精度的要求就不再如此严苛。毕竟,我们人类能够精确地捻起每一根头发丝,靠的不是本身手臂精确的控制,而是手与眼相配合,不断动态调整我们手臂动作从而完成工作。

也因此,当视觉伺服更加成熟,无需配备控制柜的轻质机械臂,能根据“看到”的东西,做出每一个行动。那时的移动操作机器人,如何参与到我们的日常生活中,有着无限畅想的空间。

移动操作机器人的实用化过程,和别的技术一样,是从军事用途、工业用途、商业用途最后才过渡到家庭用途。现在是处在工业应用阶段,5~10年后就会在商业应用上看到它,再有20年,它们就能够走入家庭。

或许未来某天,我们跟机器人共处时会想到:他们是家电?是帮手?或是家人?

《夏娃的时间》剧照

「智科特评测」事件相机

大家好。

这是我们第二期的机器人评测,今后,我们将多去尝试一些好玩的传感器和机器人,希望大家多多捧场。如果大家有什么新的传感器信息,也欢迎大家后台留言跟我们分享。

本次,由田野同学来给大家介绍事件相机,以及这种传感器用在机器人上会有哪些优势。

如果大家想测试这种相机,也可以去下载ESIM(an Open Event Camera Simulator),事件相机模拟器。

下表是三款事件相机的主要参数,供大家参考:

产品DVXplorer LiteDAVIS 346DVXplorer
分辨率 320×240 346×260 640×480
时间分辨率
典型延迟 <1ms <1ms <1ms
动态范围 90dB 120dB 90dB
带宽 100MEPS 12MEPS 165MEPS
功耗<140mA <140mA <140mA
尺寸40×60×25mm40×60×25mm40×60×25mm
质量75g100g100g
主要接头 USB 3.0 micro USB 3.0 micro USB 3.0 micro

感谢大家的阅读。

UR和MiR的2019年财报发布啦

一个小铺垫

众所周知的是,UR(Universal Robots)是协作机械臂的始祖,而MiR(Mobile Industrial Robots)是协作移动机器人的生力军。

图为哥俩相似之处


也同样广为人知的是,泰瑞达在2015年5月以2.85亿美元收购了UR,在2018年4月以1.48亿美元和1.24亿美元对赌,收购了MiR。

图为两家老板握手

作为这两家公司的间接股东以及精神股东,看到他们在今年3月份发了2019年财报,周末就学习了一下他们如何做到这么成功的。

数据方面是以丹麦克朗计价,与人民币汇率为1:1.058。

以下只是数据分享,不做分析。

UR部分

UR主要财务数据

关键数据:营业收入16.58亿,同比增长12.13%。年度净损益2.13亿,同比减少3.55%。资产总额为9.22亿,同比增长12.01% 。

MIR部分

MIR主要财务数据

关键数据:没有营业收入数据,往年财报也没有。年度净损益472.3万,去年是3365.5万。资产总额为1.77亿,同比增长25.6% 。

图为管理层评论

一些数据

我统计了简单数据做了些图片,供各位看官参考,更多信息可以去丹麦的网站上下载他们的财报,都是公开的。

DAVIS 346 事件相机上手测试

事件相机简介

事件相机,简单来说就是只有当镜头中像素亮度变化才会触发信号的相机,而传统相机是固定帧率采集图像。

说得大白话一点就是,只有运动才看得见,不动就是一片黑色。这样的好处其实也很明显,就是响应快、低功耗,特别是在做动态物体捕捉的时候,有着先天的优势。知乎上有很多科普事件相机的文章,大家感兴趣的可以去搜一下。

事件相机的使用

这次我们测试的是Davis 346 Color,这是Invitation公司出最新款的产品,这次到货之后看起来还像那么回事了,那个红色的就是相机本体:

下面我们就来讲讲大概怎么用。

#Ubuntu下的dv-gui使用#

官方提供了Windows,Ubuntu,MacOS等多平台的支持,这里我们使用的是Ubuntu 16.04的环境。下面是安装过程:

1. 添加PPA存储库以获取程序及依赖项,打开一个终端,运行下面的命令

sudo add-apt-repository ppa:ubuntu-toolchain-r/test
sudo add-apt-repository ppa:lkoppel/opencv
sudo add-apt-repository ppa:janisozaur/cmake-update
sudo add-apt-repository ppa:inivation-ppa/inivation

2. 更新软件包索引

sudo apt-get update

3. 安装dv-gui

sudo apt-get install dv-gui

4.(可选)如果打算自己做开发,可以安装开发包

sudo apt-get install dv-runtime-dev

5.连接好事件相机,运行dv-gui

dv-gui

事件相机

#ROS下的使用#

ROS下我们使用的是rpg_dvs_ros包,下面是它的安装与使用过程:

1. 安装依赖项

sudo apt-get install libusb-1.0-0-dev
sudo apt-get install ros-kinetic-camera-info-manager
sudo apt-get install ros-kinetic-image-view

2. 安装编译工具

sudo apt-get install python-catkin-tools

3. 创建工作区

mkdir -p ~/catkin_ws/src
cd catkin_ws
catkin config –init –mkdirs –extend /opt/ros/kinetic–merge-devel –cmake-args -DCMAKE_BUILD_TYPE=Release

4. 克隆存储库

cd ~/catkin_ws/src
git clone https://github.com/catkin/catkin_simple.git #该软件包用于构建DVS/DAVIS驱动程序
git clone https://github.com/uzh-rpg/rpg_dvs_ros.git

5. 编译

cd ~/catkin_wscatkin build dvs_ros_driver #如果使用的是DVS,catkin build davis_ros_driver #如果使用的是DAVIScatkin build dvs_renderer #编译渲染器catkin build dvs_calibration dvs_calibration_gui #编译校准工具

或者可以运行

$ catkin build

一键编译所有软件包。

6. 添加串口 udev规则

cd ~/catkin_ws/src/rpg_dvs_ros/libcaer_catkin #进入libcaer_catkin文件夹sudo ./install.sh #运行安装脚本

7. 连接好事件相机,运行

source ~/catkin_ws/devel/setup.bashroslaunch dvs_renderer dvs_mono.launch #如果使用的是DVSroslaunch dvs_renderer davis_mono.launch #如果使用的是DAVIS

#基于事件的角点检测#

该算法基于的论文《FastEvent-based Corner Detection》,其实现了基于事件的快速角点检测。代码地址,下面是运行过程:

1. 安装依赖项

sudo apt-get install libeigen3-dev

2. 克隆存储库

cd ~/catkin_ws/srcgit clonehttps://github.com/uzh-rpg/rpg_corner_events.git

3. 修改

由于我们使用的是DAVIS346,其像素为346 x 260,故要修改distinct_queue.h,,fast_detector.h 和 harris_detector.h 中的**sensor_width_ ** 和 sensor_height_,如下图:

4. 编译

cd~/catkin_ws/src/rpg_corner_events/corner_event_detector
catkin build –this

5. 运行

source ~/catkin_ws/devel/setup.bash
roslaunch corner_event_detector davis_live.launch

事件相机

后记

现在国内做事件相机研究的人还不多,大家可以多关注一下,可以和机器人碰撞出很多新的应用。如果想买的话,欢迎给我们充值~

现在国内做事件相机研究的人还不多,大家可以多关注一下,可以和机器人碰撞出很多新的应用。如果想买的话,欢迎给我们充值~

事件相机资源整理:https://github.com/uzh-rpg/event-based_vision_resources
事件相机开发文档:https://inivation.gitlab.io/dv/dv-docs/docs/getting-started.html
谢谢大家!

智科特社区消毒小哥上岗了!

天暖了,复工也几周了。街上的人和车,肉眼可见地多起来。毕竟,病毒是要防的,同时社会总是要转动的。经此一疫,办公场所和社区的消毒,成了每天都必不可少的功课。这个活,得走很多路,穿过不定漂浮着什么的空气。要威力足够地消毒,又不能过头了留下污染,就得把精确定量的动作,重复不知道多少遍。

不能变形,不能嫌烦。还得专挑大伙儿都离开了的时候干。

这不都是机器人的天赋吗!

于是,我们和清华大学的老师一起合作,给Caster移动机器人搞了个紧急特训,配备主动摄像机、激光雷达等多模态传感器以及紫外线消毒外设装备。

装备完毕的Caster是这个样子的:

光滑无毛的圆润头顶,一看就是中关村土生土长的娃,亲切。

立刻投身社区防疫的第一线,每晚兢兢业业刷地图。定好了要走到的边边角角,一个都不放过。通过主动感知技术,进行区域消杀工作。

不用鞋,不用夜宵,更重要的是,口罩和防护服这种战略物资,都省下来了。

夜色中独自巡航的冷色光线,沉稳、可靠,秃中带炫。

紫外线扫过之处,可以杀灭99.9%以上的病原微生物。每天提供清洁健康的环境,让小伙伴们安安心心来搬砖,为国奋斗几十年。

忙过眼前这波,下一步教Caster一点什么呢?比如,把更多消毒方式的技能给点亮?比如,给它添加更多模态的传感器?

其实,不论什么病毒,即使曾经不为人知,也是地球生态由来已久的一环。希望它彻底绝迹,愿望美好,但未必现实,更不一定收益成本相抵。就像与其他病原体曾达成的平衡那样,人类大概率会走向一个与新冠病毒共存的未来。

机器人消毒员和我们的并肩战斗,才刚刚开始呢。

又双叒叕一台移动抓取机器人

客户研究领域:场景识别与物体抓取 

解决方案:

本次项目使用Aruco的标记检测方法来获取物体位姿。Arucomarker是一个二进制平方标记,它由一个宽的黑色的边界和一个内部的二进制矩阵组成,内部的矩阵决定了它们的id。此方法易用并且准确度较高。黑色的边界有利于快速检测到图像,二进制编码可以验证id,并且可以应用错误检测和校正技术。

我们会根据需求提前打印出marker,并贴在被抓取物体,通过realsense获得图像信息,对marker进行检测,将获取的位姿给到机械臂末端,完成移动抓取。

设备清单:

设备名称用途
移动机器人 Mir 100 为机器人提供向前向后的移动功能、避障功能、导航功能、自主完成建图
机械臂 Kinova jaco2 7dof 7自由度机械臂,在三维空间移动
末端夹爪 Kinova 3 fingers 安装在机械臂末端,提供抓取力
相机 Kinect 2
Realsense
获取深度图像和RGB图像
通过识别二维码确定物体位置
云台 ELF-pan tilt 扩大视觉相机的水平和俯仰角度
激光雷达 Sick S300 用于建图和导航

硬件部分:

机械结构这部分,随着项目的积累,很多框架可以之前的基础上稍加修改,直接送去加工厂加工,给整体项目节约了时间。

软件部分:

(1)调试:

为适应移动抓取相对较高的精度要求,从建图、定位以及导航各环节进行测试优化,将定位精度控制在可用范围。调整机械臂在移动、观察、以及抓取过程中的位姿,避免移动中机械臂的磕碰,并确保Realsense在抓取过程中具有良好的视野,同时良好的视角可以弥补导航精度不足的问题。适当选用一些规划中间点,以及给机械臂关节速度、角度的限制,使臂的规划能够在尽量小范围内完成,更接近于理想状态。优化抓取流程,使整个过程更加流畅。

(2)组装ROS包:

  • 机器人模型的整体构建
  • Mir_robot功能包的版本适配
  • 定位导航功能
  • Moveit!的配置
  • 移动抓取demo


下面是我们给甲方爸爸做的演示demo:


客户培训现场:

此次培训内容包括:

  • 机器人结构:组成部分,以及各组成部分的参数、特点、功能、注意事项;
  • 基础操作:MirWeb系统的使用,Kinova手控器以及SDK的使用;
  • ROS功能:各ROS的功能以及使用、模型、Rviz显示;
  • 移动抓取Demo:根据现场场景修改并演示,讲解使用修改流程;
  • 使用安全规范:接口、上电顺序等;
  • 指导现场使用。


又一例移动抓取机器人的杂碎体验

最近我们又做了一例移动抓取机器人,这次项目主要负责的工程师是闫磊,以下是一些碎碎念:

一、项目配置

移动抓取机器人的主要构成有以下:

这次我们移动机器人选择的是Mir100,机械臂选的是UR3,处理器选择的是索泰的带1060显卡的版本,激光雷达是sick、摄像头是realsense,末端夹持器是robotiq的二指。

二、项目开发周期

项目从今年7月中的时候正式启动,8月中执行完毕,开发时间如下:

机械部分:主要分为机械设计(支架图纸设计)、加工以及组装几个内容。这部分耗费的时间最长,花了3周的时间,其中设计1周,等加工件回来差不多2周,组装差不多就两天的时间。

电气部分: 由于客户不想将UR机械臂的控制柜改为直流,所以我们选择了使用逆变器,将Mir电池24V的电压逆变为220V交流,然后直接给机械臂去供电。PC方面使用了一个大功率的DC/DC将24V降压为19.5V去供电。末端夹持器的供电则直接使用了UR控制柜中的24V直流输出。由于整体的供电逻辑比较简单,所以这部分花了差不多2-3天就搞定了。

软件部分:为了方便用户开发,需要我们在ROS下将各个部分的组件攒在一起,有些部件没有ROS下的驱动,我们还得去开发一下,大概耗时1周。

下面说一下其中遇到的坑:

首先,图纸送去加工厂制作,来回一共出了3个意外。。。。

第一次,铝合金板件比事前约定的时间延迟了1个周。

第二次,型材孔位的位置打错了,返工。

第三次,板件的尺寸搞错了,返工。

三、项目经验

本项目采用的设备跟之前做过的一个抓螃蟹的项目很相似,之前是Mir100和Ur5,这次是Mir100和Ur3,除了电气部分之外,有些软件和硬件上的东西是通用的。所以本次项目更加注重细节部分,在原来的基础上改进了用户体验度。比如说:支架拆装更加方便了,重量也下降了,供电及走线更加安全合理了等

四、杂七杂八的Q&A

Q1: 最终用户是要用在什么的场景?

本次项目的最终用户是机器视觉领域实力很强的研究所。

他们想做的场景是动态物体捕捉后,移动抓取机器人根据视觉数据去执行相应反馈,比如识别这个物体的运动轨迹,然后机械臂和移动机器人做相应的反馈,去击打或者抓取物体。

Q2: 整个集成过程中一共分为几个部分?工作量主要集中在哪里?

一般机器人集成分为硬件、软件、电气三个部分。

硬件部分,我们要考虑移动机器人、机械臂、各种传感器和机器人的控制器整体的布置、机械臂是否会倾覆、如何配重等问题,最后就是加工结构件和连接件。

软件部分,我们整体是基于ROS做,有的传感器没有ROS驱动,我们会写相应的驱动,还有就是仿真部分的模型以及整体组包。

电气部分,要考虑到所有组件的供电以及机械臂的供电,机械臂一般是交流供电,底盘是直流输出,这里会有一个逆变的部分。另外就是整体电气安全设计也要考虑到。

Q3: 你觉得针对该集成还能够落地的场景有哪些?

其实移动抓取机器人现在落地的场景还不是很多。半导体行业会占主导,主要也是因为半导体行业能出的起这个钱。随着移动抓取机器人的价格慢慢的降低,我相信有更多的场景能够落地,现在我们也见到了国内的一些新的创业公司在一些细分领域场景有了新的案例,这是一个很好的现象。

我们觉得符合以下特性的场景都可以使用移动抓取机器人:

1.工作站形式

2.整体节拍要求不高

3.目标物体为单件的形式

4.整体成本降低

因为移动抓取既有移动机器人的转运能力,也有机械臂的操作能力,整体功能很靠近人类了,如果有一家企业可以把价格做到三十万以内,易操作部分再下一些功夫,一定能够大卖。

Q4: 作为一个机器人工程师,完成一个项目需要具备什么样的能力?

我觉得第一就是沟通能力,机器人工程本身有着多学科交叉的特性,所以工程上涉及到的人很多,很难说是成为一个独立开发者。良好的沟通能力是一个机器人工程师的必备素质。

另外技术这方面,机器人工程师掌握的技术点会很杂,软、硬、电都要涉及,机器人就是个集成性创新的产业。

当然,每一个工程师都会有一定的偏向,可能软件更强一点,可能硬件更强一点,但实际上大家都有全面的技术背景知识,所以一个好的机器人工程师需要很多年月去磨练,才能从实践中积累到相应的“技术体验”。也基本上很难通过培训机构,批量化产出这方面人才。


其实算是第二例双臂的不少感触

严格来说这算是我们第二例的双臂机器人,第一例是它:

啊但是做这台双臂的老哥最近没空写文章,于是就让田野先来了

本场嘉宾:


双臂协同机器人(Dual-arm robot)这些年还算是很火,国外比较有代表性的有:

安川的CSDA10

ABB的YuMi

EPSON的Hupico

在工业上确实有土豪在用的Kawada的NEXTAGE

以及倒闭了的最近听说好像又活过来了的Rethink baxter

他们的共同点就是贵、特别贵…

要烹饪一台双臂机器人,主要佐料如下:

任意机械臂两台、末端工具两台、手眼系统两台、稳定可靠的双臂架子一台、机器人头部的云台及摄像头一台、里面跑ROS的电脑一台,可能有的还会加安全激光。

下面是我们的市场小姐姐对田工关于这个项目上的一些Q&A:

1.为什么要用双臂机器人而不是单臂机器人?

双臂机器人相对于单臂比较新颖,同时又能给教学或者研究带来一些新的发现。从控制上来讲,双臂协调是一个研究方向,双臂涉及很多算法,诸如同步、轨迹预判、防止互碰等,这些算法的考察都比较复杂,对于集成商而言考验非常大。

另外双臂机器人可以完成例如装配、拆解、喷涂等这些需要协作的任务,而这一点靠单独的机械臂无法实现的。

目前市场对于双臂协作机器人的需求一方面是看技术的发展,一方面还是出于对成本的考量,当两者达到平衡点之后,双臂应该会有起色。

2. 客户是用来做哪些方面的研究?

研究内容就是强化学习,强化学习是一个序列决策问题,通过不停的尝试来学会某些技能。

以机械臂抓取物体举例:传统的做法可能是先去判断这个物体的位置,然后通过程序告诉机械臂目标点的位置,机械臂直接运动到目标点。而强化学习则是需要通过算法计算每一个关节的角度,然后逐步逼近那个位置,就说比如说我的肘关节要转多少度?我的腕关节要转多少度?通过不断的调节,一步步逼近,这个重复次数有可能会高达107,一般是在仿真软件中完成的,达到一定状态后,才会通过实物进行实验。

3. 项目设备包括哪些?

  设备名称 用途
机械臂 UR3 ×2 6自由度机械臂,在平面或三度空间进行运动或使用线性位移移动
末端 Robotiq 2指夹爪 ×2 安装在机械臂末端,提供抓取能力
相机 Kinect相机 ×1 Realsense相机 ×2 Kinect相机通过红外原理,用于获取整体环境信息 Realsense相机用于获取抓取状态下的环境信息
云台 ELF-云台 ×1 用于扩大kinect相机视野

4. 项目周期

周期为期2个月: 2019年7月初-2019年9月6日

一共分为软件、硬件、外壳三部分。

软件:可以分为两个内容,一是ROS的模型构建;二是软件工程调试。

ROS模型构建:也就是说两个机械臂在运动过程中,需要多大的范围才能避免与本体发生碰撞,以及机械臂、相机等所处的位置,这个需要提前进行考察的,考察结束后我们会将本体标记出来,告诉机械臂这里是不能被移动的点。另外一方面就是kinect相机以及 Realsense相机需要多大的视野,才能支持机械臂的运动。这部分大概花了3-4周的时间。

软件工程调试:这么多的设备集成一套,各个设备之间的ROS会存在冲突问题,它可能是用了同样的接口,导致无法在软件中调用,所以需要不停的摸索各个设备间兼容性的问题。大概花费有3-4周时间。

另外我们花时间做了一个小demo,请欣赏:移动抓取 功能展示


硬件:

其实硬件部分,主要工作是校核整体双臂机器人在运动过程中不发生晃动,然后架子要做得便于安装和移动,这部分我们花了不少精力。

另外,用户对美观性有要求,所以我们花了大价钱打印了一套外壳,设计这个外壳还要考虑便于拆装,对本体不会干涉,着实费了一番功夫。

5. 项目的难点在哪里?

因为我们之前没有做过类似这样的项目,最大的难点在于集成设备数量比较多,一共有8个,需要考虑各个设备之间的兼容性,比如相同的两个机械臂之间接口相同,在程序里不好调用,需要想办法把两个接口分开。而且USB接口就已经有10个左右

我们的优势是:积极相应客户需求,提供现场维修支持或在线维修支持,提供售后服务和软件二次开发。

附几张培训现场(交货现场)图片:

这次为其两天的培训内容包括:

  • ROS操作
  • 使用安全规范
  • 机器人结构
  • 3D仿真模型
  • Kinect云台操作
  • 互动:学生上手操作机械臂用法

图为司草田工

12