想学机器人视觉 动态视觉什么的,有什么牌子的什么机器推荐吗?能不能仿真?还有手册。

  1. (以下按姓名拼音顺序排列)
  2. 董壵海:北京大学教授博士生导师,计算机图形图像学
  3. 桂文庄:研究员中科院老科协副理事长,原中科院高技术局局长
  4. 何远光:中科院咾科协执行理事长兼秘书长原局长
  5. 洪继光:中科院自动化所研究员,模式识别
  6. 胡包钢:中科院自动化所研究员
  7. 李亚男:中科院老科协办公室主任助理
  8. 林  鹏:中科院自动化所研究员模式识别
  9. 卢国刚:中科院自动化所研究员,智能制造
  10. 麻莉雯:中科院老科协办公室主任
  11. 石秋聲:中科院自动化所科技处
  12. 肖攻弼:中科院自动化所研究员
  13. 张恭清:中科院自动化所研究员,原所长助理中国自动化学会秘书
  14. 张尤腊:中科院网络中心/软件所研究员,原中科院软件所所长软件工程

当前,人工智能和机器人视觉技术已经成为国家创新驱动发展的重大战畧技术之一机器人视觉视觉技术作为人工智能和机器人视觉技术的重要组成部分,它可以通过视觉传感器获取环境的图像并进行分析囷解释,使机器人视觉能够辨识物体并确定其位置。机器人视觉视觉在电子、机械、智能机器、医疗、军事等许多领域都有非常广泛的應用前景但是,由于技术方面的原因目前高性能机器人视觉视觉系统的多个技术瓶颈尚未得到突破,因此限制了其应用的发展本次沙龙介绍机器人视觉视觉系统的部分关键技术的研究发展现状,讨论其进一步发展的方向和问题

顾学真:各位专家,早上好今天是我們自动化所老科协分会举行的第三次沙龙活动。今天沙龙的题目是机器人视觉视觉的关键技术与应用沙龙主旨报告由原魁研究员来做,怹从事机器人视觉的研究的另一位是北京大学的查红彬教授,他是从事计算机视觉研究的下面咱们进入正题,请原魁老师先做关于机器人视觉视觉关键技术研究和应用方面的发言欢迎原老师。

原魁:机器人视觉视觉关键技术与应用

各位老师大家上午好。非常高兴有這个机会跟大家交流一下我今天跟大家想交流的是机器人视觉视觉技术方面的事情。我们所做工作有很多今天想简单的说一下机器人視觉视觉相关的内容。

首先机器人视觉视觉很重要,机器人视觉视觉系统是智能机器人视觉进行环境感知的主要途径但也一直是智能機器人视觉发展的主要技术瓶颈,技术上远远达不到需求限制了机器人视觉视觉的发展。

工业机器人视觉有用到视觉的2D视觉伺服技术巳经比较成熟,得到了很好的应用但不是很普遍。3D的也有但是并不是很成功。

1  2D视觉伺服技术已经比较成熟在工业机器人视觉上得箌了很好的应用。

2  3D视觉伺服技术还任重道远实际应用也非常有限。

下边简单介绍一下机器人视觉视觉的关键技术智能机器人视觉的控制一定是先做环境感知,根据环境和任务做控制决策最后才执行相应的动作。这里面对机器人视觉视觉的要求是首先你得看得懂环境,包括环境的感知和理解然后可能要执行任务,就要能够找得到目标简单环境下,像咱们的天空对接是最最简单的任务实际上很哆地方很复杂,你要找到你想要的目标是很难的我们的学习也基本上集中在这个地方。

一定要满足实时性要求不像我们平时处理的任務,你学一个小时也行学一天也行。机器人视觉不行机器人视觉对实时性要求很高,我们人的视觉系统是眼睛加大脑眼睛解决看得箌的问题,大脑解决看得懂的问题所以理解的问题实际上是机器人视觉视觉要解决的问题。

视觉系统一般是硬件软件两个部分组成硬件解决看得到的问题,软件解决看得懂的问题

现在的视觉系统国内分几种,一种通用型通用计算机加不同类型的机器人视觉视觉系统。再有就是现在越来越多的开始出现嵌入式机器人视觉视觉系统有的是嵌入式,有的干脆做成一体这种类型也比较多。硬件实际上除叻计算机相关的之外还包括镜头类的东西。比如说鱼眼镜头虽然会发生变形,但是视野非常大在很多地方有特别的需要。

还有一种叫全方位视觉系统可以看到360度。基本上是这样一个结构用的比较多的是我们进行足球比赛里边,也有不同类型的不去讲了。

普通相機得到的是2D图像为了获得3D信息,可以用深度信息传感器当然了,目前不同类型的深度信息传感器的分辨率低一点也有很多种类。我們各种类型的激光传感器实际上它处理方式跟视觉是比较接近的,所以这种我们一般来说它的硬件都是视觉系统。

光有硬件是不行的硬件解决看得见,软件解决看得懂看得懂比看得见的难度要大得多。软件的任务是这样的它要对采到的视觉信息进行处理,通过处悝之后要找到给定的目标,可能还要识别这个目标到底是什么是不是要找的那个。这里面包括两个方面的任务一个是要做图像处理,一个是做模式识别

图像处理里边包括预处理,有特征提取特征提取里边有直接的图像特征,直接的和底层的也有看不见的特征。囿的特征计算机能够提取出来但是人是看不见的。现在很多人工智能就是这样但是它就是根据那些特征识别到它找的物体。有了特征の后就可以做目标检测

工业机器人视觉视觉用的不是特别多,但像这种抓点心的视觉系统它的特点就是速度非常快,能够把所有的点惢所在的位置都能实时识别处理。机器人视觉控制器可以控制手臂把杂乱无章在传送带上的点心捡起来,最后让它整整齐齐地放在一塊儿

图4  抓点心的视觉系统

视觉系统在无人驾驶车和机器服务人方面有着广阔的应用前景。

种服务机器人视觉很多比较有代表性的是日夲的新一代仿真机器人视觉,看看它现在都能干什么这个机器人视觉上边是有眼睛的,还有各种各样的传感器它现在已经可以跑得很赽,每小时跑九公里它可以听得懂三个人同时发的命令,能简单对话这个手已经很灵巧了,能拧杯子它可以主动绕开对面走过来的囚,有的时候靠视觉有的时候靠身上其他东西。能踢球做手语。我们希望这样的机器人视觉能早点进入我们的生活但是有两个问题沒解决,一个是电源充满电只能工作半个小时,再一个智能还差的很多。

这样的机器人视觉当然也是需要有视觉的而且对视觉要求蠻高。简简单单避障是很容易的但是要理解环境,找到目标是比较难的,所以先要识别

现在需要解决的关键技术问题就是有良好通鼡性的高性能的嵌入式视觉系统研制开发。这也是我们在努力解决的问题

视觉信息的高处理速度和高系统功耗是难以平衡,所以电源一般用的时间比较短同时使用FPGA和DSP,能够发挥二者的优点采用专用芯片,用硬件直接实现多种复杂操作

下面简单介绍一下我们所相关工莋。我们所做视觉的很多很多我们做了几块处理卡。有一个FPGA加DSP我们把常用的图像处理算法都用DSP实现,远远高于普通系统高几十倍几百倍很正常的。我们用到了很多地方这只是一个例子。这里面算法做了很多像这种预处理基本上都是每秒做到上百帧都没有问题。SIFT的特征点提取用我们的要快很多倍

其中一个有代表性的工作,我们大型的武器装备的数码迷彩的喷涂已经在部队几个研究所验证了好几遍。主要工作一个就是自动建模可以自动扫描,自动建模生成模型。最重要的技术就是可以自动编程可以自动生成机器人视觉的控淛程序。像这个喷涂过去是战士喷的这样一台车一般是五个战士喷七天。国庆60大庆的时候很多车喷的所有的都是同样的图案起不到伪裝作用,这个有现代迷彩的伪装趋势自动建立模型,自动编程这儿有一个识别,它在测距会自动把误差送到机器人视觉控制器,做洎动的补偿才能保证喷的宽度都是一致的,否则保证不了一致

面向机器人视觉视觉系统的MR二维码,它的用途蛮广的它基本作用就是,有了它它就可以定位,看到它之后就知道你的视觉系统和它的位置而且它是专门面向机器人视觉视觉的,所以离这么远也可以提取絀来我们把它用到了视觉导航的AGV上,视觉导航AGV除了我们做国内外基本上很少,因为这个还是很难的我们一般的AGV只能在室内环境,我們这个是可以在室外环境跑看到二维码就可以决定你视觉系统和它坐标系之间的关系。还可以用到其他地方比如说我们用到了移动机械臂上,机械臂很贵如果把普通的AGV加机械臂之后,就发现机械臂和机器人视觉的坐标系对不上我们用二维码的技术,现在是两种国外的机器人视觉和我们的AGV连起来,做智能的移动机械臂这是一个例子。这两台车是在随意的移动它的任务只是要把那边的东西抓起来疊放在这儿,它看一眼就知道两个之间的距离可以对得很准。地上贴的也是二维码因为二维码有信息,所以给了它位置信息像这也昰,停下来之后两个车之间相互的关系根本是一点都不准的,没有一个准确的关系但是用我们现在这样的系统可以准确地对上。这个應用应该说在很多地方可以应用比如说简单的仓库,你在超市的货架上取东西都可以用这种技术。

图6  面向机器人视觉视觉系统的MR-二维碼左图是MR-二维码,右图(1)和(2)是MR-二维码在不同光照下的识别效果

到现在为止大概国内是信托公司做到了信托公司有这样的产品。國外只有库卡做了但是他们都是用成熟的技术在做集成,成本比我们高很多车完全是自己做的,视觉系统完全是自己做的机械臂可鉯用不同厂家的,将来这种智能型的移动机械臂的应用场景还是比较好的各种各样的原因,没有把它用上这是一点遗憾,希望我下边嘚人能够接着做下去

我们AGV技术也是,我们用了视觉导航一个是不用铺磁带,定位的话可以用二维码,我们是一些地方在用在天津嘚亚马逊,还有在青岛一家做衣服的公司我们做的还有激光导航的叉车,这个技术比较成熟了

我们研究所,做科研是我们的强项做荿功推广不大行。因为做科研的人做不了销售这是两类人。我们曾经试着想做成果推广发现不行,我们还是比较弱还是要找一些公司。今天下午有一个韩国的公司专门找我想把我们的二维码用到垃圾袋上,每一家的垃圾都自动有一个码可以远远看到就识别。我们嘚视觉技术可以用到托盘的自动对准

简单总结一下,视觉系统的应用总体上较为广泛但是现在实际能用上的确实是不太够。现在人工智能很热大家现在再静下来仔细看看,只有两个应用一个是视觉,一个是语音处理机器人视觉视觉非常非常重要,对我们搞机器人視觉的来说特别有这种感觉机器人视觉视觉系统发展本身确实比大家想象的要慢很多。像我们这样的做了硬件,没有人做软件推广起来不容易。做软件的人只会做软件做的再好也没用。比如说现在的深度学习未来可能有用,现在用不上所以机器人视觉视觉系统還是未来的难题,谢谢大家

顾学真:谢谢原魁老师。他概括地介绍了机器人视觉视觉的发展目前存在的技术上的关键点,以及应用咱们听了以后很受启发。下面查红彬老师主要介绍机器人视觉视觉中感知和建模方面的问题下面有请查老师。

查红彬:基于三维数据流融合的场景重建与传感器定位技术

谢谢顾老师今天非常荣幸,非常高兴见到这么多老前辈。本来原魁老师跟我说跟大家做个交流没想到见到了这么多老前辈,以前很多在不同场合见过特别我想提到的是董士海老师,在我们学院无论是从公从私来说都给我们很多很哆帮助。今天能见到董老师非常感谢对我的指导。

今天我要讲的题目是SLAM(Simultaneous Localization and Mapping)技术它是基于所谓的三维数据流。应该说这个SLAM技术在机器囚视觉领域里面作为机器人视觉视觉部分很有传统的研究领域,它是个老话题这些年讨论得比较多。今天汇报有两部分我们在现在嘚环境下,发展到今天再来看SLAM问题是什么问题,对这个问题给各位老师做一个交流

其实SLAM说穿了,第一就是定位我们一台机器人视觉茬什么位置,这个位置要给它确定好要在每时每刻把位置确定好。通常我们讲定位讲传感器或者机器人视觉的时候有不同的参数,一般来说有两个不同的参数一个是位置,它在三维空间中XYZ是什么样的值另外是什么方位,对着哪个方向也需要三个参数,所以我们基夲上要定六个参数它在空间中的什么位置,是什么样的姿态这块原魁老师已经说过了。Mapping是测绘我们讲机器人视觉的时候是说建一个尛构图,比如说我进到房间里面我要知道房间是什么样的结构,如果没有结构三维描述的话我要建一个房间构图。我们一般来说机器囚视觉在4G环境中工作的时候一方面要知道传感器的定位,另外要知道环境怎么样三维结构。在机器人视觉应用当中也是两个不同的子任务来做的比如说导航这部分,用GPS进行大规模的导航还要MV做一些小范围的导航。另外设置一些标志像二维码这些东西,来帮助机器囚视觉导航所以是把它看成是一个单独的问题来做。当然了像GPS也好,MV有他们精度和分辨率的问题在里面,通常在应用中不是很方便

其实这两个问题是相互依存的,我要做定位的时候通常我们是需要知道地图的。如果没有地图我没法看清楚我环境当中是在什么位置。另外我要建一个地图传感器的姿态我要知道,我要不知道传感器的姿态放不到一起去。后来搞计算机视觉研究的人就觉得应该把這两个问题放到一起考虑不应该独立开,所以就形成了SLAM

我们在这种假设条件下,怎么来把这两个任务同时完成让机器人视觉,或者讓其他的一些移动终端或者移动传感器能够更好地完成我们所要求它所做的工作。这是我们所讲的SLAM的基本概念

机器人视觉应该说现在樾来越多,一个很重要的特点机器人视觉传感器系统是在移动中工作的。以前拿一个摄像头摆在那儿这个传感器本身是固定的。我们現在讲的传感器基本上都是可移动的。像自动驾驶自动驾驶的车,传感器都是装在车上车每时每刻都在移动,所以传感器的移动性佷强提出的各种要求也很高。要做好传感器和观测目标都在运动变化情况下的定位是最难的。我们现在讲智慧城市里面需要把不同嘚位置的信息,以不同的形式放在一起帮助我们做很多事情这些都需要同时做定位和建模。

我们现在讲机器人视觉很重要移动传感器佷重要,单就定位来说对我们人来说,我们定位或建模都非常重要世界上没有哪个人工系统能像人的视觉系统一样定位做的好。我们烸时每刻都在动我们睁开眼睛都看到一个场景,但是你的头怎么摆不会看到场景在晃动。我们拿摄像头摆来摆去肯定看到场景是抖動的,但是我们人感觉不到所以人是非常非常好的,具有很好定位能力的传感器当然人有很多巧妙的东西在里边,比如说耳朵里面有萣位的传感器另外大脑里面,对于每一个行动都有一个控制指令这个指令也会传达给感知系统。

现在在机器人视觉领域或者说在人笁智能领域,现在对定位这个东西越来越重要了今年马上要在澳大利亚开一个很重要的机器人视觉方面的会,关于定位的论文就占了将菦三分之一应该是非常大的比重。在计算机视觉更多的还是深度学习但是在定位领域会越来越多。

我们从4D的角度出发我们现在用的夶量的视觉摄像机,如果有三维的传感器的话这个工作会做的非常简单。所以三维传感器是非常关键的五年前我们讲SLAM的时候,讲的不昰很多因为当时传感器水平比较低,现在传感器水平有比较大的提升微软之前有一个Kinect传感器,它很重要的就是每时每刻能够检测到三維的信息我这个传感器到不同的空间的距离它能测出来。摄像机只能有规律的变化而它能够把每一个点的三维位置检测出来。这个传感器也有很多局限性精度很低,分辨率很低但是有个好处,速度快便宜,大概一台一两千块钱就能买一台基本上我们那边的学生烸人有一台。这样的话三维传感器就有很多应用了像手势识别,包括三维空间的感知用的很多。它自然也会给SLAM带来很多影响同时有佷多传感器,移动便宜,大家都能有带来很大的进步。

8 微软的Kinect三维传感器

但是反过来说有这么多传感器,但是从应用角度看它們是不是足够好呢?如果把这些三维传感器拿来把这些三维的应用拿到一起,是不是就可以满足要求呢不是这么简单。尽管我们有一些很好的传感器但是要做到4D的应用,差距很多主要有几个方面,一个是数据本身的信息还有处理的复杂性。

第一个就是数据尽管峩们会得到三维数据,但是数据本身非常粗糙我们现在要面对的环境是一个大环境,是一个动态的环境例如自动驾驶时,你自己在动同时周围的车辆行人也在移动变化,我们要对付的是这样的复杂场景但是我们的传感器精度并不够。另外有一个很大的问题就是采樣不均。二维图像数据能排列得非常整齐但是我们的三维数据排的并不是很整齐,数据量远远大于二维图像特征取列独特和困难。现茬各种不同的传感器有立体视觉的,不同的传感器之间的差别也比较大对数据本身,要考虑其不确定性所以要用概率统计的方式做處理。

第二个我们应用时间性很强的,数据在不断地往里流入所以在流进来的数据你可以做实时交互。但是有一个很重要的你不能莋包处理。你处理的时候你要每时每刻都要考虑到数据它本身是什么样的性质,然后得到结论一个很重要的要求是我们现场要处理掉。但是同时既然数据源源不断进来,数据之间有很多关联性前面的数据和后面的数据有很大的相关性,如何利用数据流时间上的相关性这是非常重要的,这也是必须利用的因为讲视觉技术都是图像识别,有什么样的物体什么样的分类,这都是静态的但是数据流進来之后就是动态的,这是计算机视觉里面比较重要的方面

第三个问题,定位和Mapping互相关联的关系其实我们讲定位的时候,可以放很多別的传感器帮助我们定位虚拟现实的头盔上面装了很多小圆球,就是通过环境的摄像机来定位所以环境能够来帮助你定位。这时候是環境当中能够帮助你摄像头存在的时候才能这么做一旦你到了新空间,到外面去就不行了所以要尽量摆脱这种东西来帮我们定位。

我們讲的定位有六个参数Mapping的参数更多,一般来说解决这个问题就是非常复杂的分析性优化的问题这是我们目前为什么大家都在注意SLAM问题,会给计算等等带来很多挑战

第四个问题,数据的实时处理对所采集的数据,你必须实时处理完成这个实时性的要求也非常强。我們要使操作过程对输入的数据流有很好的适应过程把在线的学习,机器学习这些问题能够很好地用到这里面来才能帮助你使这个过程能满足实时性的要求。有很多机器学习的方法比如说在线学习就是一个例子。例如在家里我手机的摄像头一直都开着的话,各种各样嘚数据不断地往你手机里面跑这些数据都可以用来学习。我可以把家里面的构图做好我在什么位置可以给我定位,能够每时每刻了解伱的行为和动作从这个角度来看,我们讲的定位这跟我们人活着一样,终生不断地学习过程只要设备是开着的,数据不断地进来幫你做定位,帮你绘制构图同时也是一个学习过程。所以实时处理是很重要的要求同时也给我们带来了很好的研究的机会。

下面我再給大家具体说一下这些问题怎么解决这里面解决了一些,从概念上非常容易想到的办法但是很多需要下一些功夫。数据的不确定性峩们可以用概率统计的方式,对数据进行建模数据流怎么办?能不能很好地利用数据之间的时间的一贯性另外用传感器的姿态做定位,像更好的一些优化的东西能不能帮助我们解决优化的问题。像实时处理我们其他一些更好的节省计算量的方法可能要开发出来。

这裏有一些对策我给各位介绍一下相关的研究。我前面讲的第一个问题就是数据的不确定性的处理。我们做定位也好做建模也好,要囿一个通用的空间的描述这个描述有了以后能够把这些做好。空间的描述就是方位构图有各种各样的描述方式。以前讲的描述方式是“零、一”关系里面有物体就是一,没物体就是零但是现在描述空间可能不是“零、一”的关系,对空间只能有一个概率的描述应該把这个场景的面的存在的概率是多少先计算出来,用一些推理如何用更复杂的非参数的推理来做,有一系列问题在里面能不能把三維空间看成格子状的结构,这里面的每一个点它到底在不在这个面上它有一定的概率,把这个概率数据收集进来以后数据对概率产生叻改变,我可以更有把握地说有这个表面通过我进来的每一个采样点对这个空间的概率分布做修正。这是这篇文章所做的工作我们实驗室有些学生对这方面做了更好的改进,现在投到了ECCV这个国际会议上把空间的表示用概率的描述表示了。

第二个方面的工作我们讲的偠做定位,要做建模就是优化问题。有很多不同的方法最核心的还是要把你所谓的重要的因素,构图当中一些重要的因素怎么考虑进來比如说这是室内环境的布图,里边有各种各样的结构特征把这些特征很好地提取出来,建立图模型这个图模型出来以后,对它用概率统计方式做优化

第三个,我们考虑动态变化的环境我前面讲做定位等等都是传感器在动,环境不动现在是环境也在动,动的因素更多了怎么样能够把环境当中动的因素也考虑进来。要把变形跟实时处理结合起来我两边之间数据是有变化的,它时间比较短我能不能把这两个点之间看成是变形,把这两个点连起来之后就能描述这个运动了

我们通过三维的数据融合得更好,找到比较好的空间、數据的表达方式和分析方式解决几个问题,数据是不断地增加的数据的增加过程有它的难点,但更多的给我们带来的是好处慢慢地數据越来越多,数据带来可靠性能够帮助我们使最后的结果越来越好。特别讲时间和空间的相关性应该是非常重要的主要因素。对不確定性因素应该用比较好的统计方式处理。另外数据不能只在一个层面去处理只是看点不够,只看一条线也不够只看一个面也不够,要把不同层次的东西都考虑进来这三方面只要在哪一块有突破的话,能给机器人视觉视觉领域带来比较大的突破我就讲这些,谢谢夶家

顾学真:谢谢查老师。他讲了传感器获取信息、三维的数据融合方面的问题这是人工智能里很重要的一部分。人工智能在社会上炒得很热但是确实还存在很多问题。对人来说要看这个东西,从我脑子里的印象里这个场景到要找的东西是在哪儿,对我们正常人昰最容易的事但是现在看来完全要靠机器实现这一过程,还是有一定的难度的我们什么时候能攻克这些东西,人工智能就往前进了一步机器的智能方面也往前进了一步。下面大家自由发言交流大家可以谈自己的看法和建议,也可以请原魁老师和査老师对报告里的问題做进一步的说明原魁老师和查老师也可以提一些问题拿出来让大家议论议论,你们的观点是什么是不是大家对这样的想法有同感,戓者有不同的想法你们也可以提一些问题出来。

原魁:我们沙龙就是请大家来讨论看看有什么共同感兴趣的话题,如果大家对我们做嘚工作感兴趣的话我可以利用这个机会再稍微详细一点,因为刚才讲的很粗

董士海:我觉得这是一个当前非常热点的问题。我对此确實不熟悉我说一个事情,最近Google的(自动驾驶)车撞死人了Uber撞死人了,这是法律问题但是从科技的角度来说,怎么能够在一定的条件丅尽可能实时地尽快地的测出有人意外的蹿到马路上去了,原因是什么在无人车视觉系统中,现在有没有解决类似突发事件的办法

苐二个问题,现在的机器视觉深度检测对光线有一定的条件。我如果晚上开车是不是条件又受到了一定的限制?在深度信息和光线的奣暗信息有什么样的限制能不能达到更高的要求?

另外还有一个采用多模态的检测。我自己觉得语音的识别和语音的生成,这个已經做得比较好就是说,不光语音的翻译也好语音的检测也好,做得相当的好但是视觉这方面难度相当大。能不能把声音和图像这两鍺结合起来不必在大量的数据处理以后才能检测这个问题。

原魁:我们做机器人视觉的人非常注意这个信息。Google 的车现在还没有公布倳故原因,基本上判定车没有责任但是它没有及时检测到。无人车上面装了很多很多个传感器实际上它检测的话应该能够检测到的,佷可能是把某一些传感器关掉了特别是侧面检测的传感器很可能是关掉了。现在无人车最重要的传感器是64线的激光雷达好几个侧面激咣雷达,应该覆盖到所有的地方它那个很可能侧面的某一个关上了,没有检测到所以它那个信息没有处理。

无人车上的判测装置有两夶类一类是这样的(用激光雷达),另外一类是希望通过视觉系统来实现的视觉肯定有问题,天气不好的时候就不行激光雷达大部汾都行,但是激光雷达也有不适应的环境

第三个问题,语音这个语音是一维的信息,视觉至少是两维的车在路上是六维的,这样一來处理的信息量远远大于语音语音处理现在也是复杂背景的时候就不行了,所以语音技术用到无人车上大概不太好用要说在十米之外檢测到他本人大概可以,检测预测到他的行为方向和动作这件事情还是很难的。他突然间撞过来再刹车来不及了。这样的问题不大嫆易解决,还是法律的问题要探讨看这样的问题到底责任在谁。

查红彬:刚才讲的自动驾驶的事情这个属于小概率事件。小概率事件通常来说是很难碰到的但起码给我们搞人工智能的人一个提醒,是不是应该反省一下现在的方法是不是特别依赖于机器学习了我们讲機器学习的时候,主要是依赖训练数据经过大量的数据训练它,最后它能够应付这些情况这个车可能跑了几十万公里,几百万公里的數据在里面对这个车的性能做了很多修改和训练,但是可能就没有现在碰到的场景谁突然出来撞你车前面去。他没有数据就没有把這种问题考虑进去。现在我们单纯说依靠训练数据来做现在人工智能最热的部分是不是也有它的问题在里面?现在还有所谓的迁移学习不同的情况下会怎么样,这样的话会给我们搞人工智能的人这方面的解释和启发

第二个,把小概率事件完全消除掉对任何产品都不呔可能,关键是你这个产品成熟之后进入市场之后多年,才可能把小概率事件暴露出来自动驾驶还没有到这个程度,还在试的阶段

苐二个讲到图像和语音和视觉怎么融合。现在很多人在讲每年项目评审出来的也很多,要把什么什么融合起来但是融合的效果并没有提高很多。问题在哪儿很多大家并不是真心实意地想融合起来,而只是为了申请项目视觉也好,听觉也好还有很多问题没有解决,洳果融合之后有成果很难,发文章也很难干什么事情也很难,人家也不愿意去做其实人做动作时,大脑里面是有指令的这个指令馬上给了你的控制系统。你有指令下来以后你当然要用其他的感应信息,这样的话就能帮助你做这件事情自动驾驶也是这样做的,车孓怎么动全是有指令的,左转多少右转多少,尽管有很多不确定因素但是这个指令是可以感知到的。很多东西如果能够结合起来確实能够解决很多问题,但大家还是没有感觉到我结合起来真的能够把它做好或者真的拿出东西出来,这也是目前面临的问题

张尤腊:我觉得视觉方面的一些研究工作,应该属于应用研究应用的背景非常强烈,很明确我就是针对这个来做的。如果这样的话我觉得現在最大的问题还是传感器的问题,如果这个问题解决好了其他问题好解决得多。要做分析识别现在微型机很大一部分都能解决。

刚財讨论了很多我对这个自动驾驶车的问题,在中国花这么大力量我总不觉得是一个应该投的方向。自动车最大是问题在中国是行人横穿马路你怎么去实行无人驾驶?根本做不到我觉得医疗方面是中国是最需要解决的问题,13亿人如果能够在医疗方面做的好一点的话,可以解决中国很大的压力

比如说去医院看病,心脏觉得有点不对就去挂号看医生。他要实时监测我心脏的情况但是设备常常需要預约到十天半个月之后,到那时症状可能已经消失而监测不到了是不是可以通过手机监测信息,通过手机传到医院这样就能在很大程喥上解决问题。还可以在网上医疗做一些前期的工作现在手机上可以下载一些应用软件,就可以检测你的血压、心率血糖的饱和度,某种心理上的状态它都可以检测。这个当然不太准但是还是有用的。所以我就特别希望是这样的像自动化所,希望能够有更多的力量在健康,保健医疗在这个领域里头多做一点工作。我上次看你们的网好像有一个部门做这个事,希望加强在这个问题上,如果想抓中国实际的状态这个应用我认为是至关重要的。

张恭清:问题还是回到传感器如果要做到这一步的话,必须我们在家里就能够得箌很多个人健康的信息甚至于你早上在厕所里,它就能够把这些数据及时传到医院里去这时候就是用云的,或者虚拟的医院里面有佷多机器人视觉在这儿给大家做诊断。

桂文庄:手术机器人视觉肯定需要视觉技术

原魁:实际上手术机器人视觉的视觉只是帮人看,操莋还是人现在还有放疗机器人视觉,它能够把测的图像把癌症的部位检测到之后,传给机器控制器然后自动发射X线,去杀死癌细胞把医诊和视觉技术结合比较好的。国内有这个领域叫智慧医疗,但是这个问题太复杂有这么多人,每个人情况都不太一样你早上囷晚上保证血糖不一样,各种情况都不一样包括现在讲基因检测之类的,你感冒检测出来了你吃药不吃药都要一个星期的。我以前做過智能型的康复辅助这类东西和基因技术关系比较密切。

查红彬:这个事情国内做的人很多中国做这个事情比外国更有利。外国有很哆东西被法律捆住了临床上很难动。中国相对来说松一点中国可能在医疗应用方面可能比国外更容易。确实有很多人做大家做来做詓,最后问题症结是什么呢这个东西应用性很强,不能只是纸上谈兵必须到医院利用起来。现在最大的问题是利益关系医院不愿意放弃既有利益。我要自动化了数据都让你拿走了,很多人没饭吃了医院不干。很多东西到最后阻力在医院医院不想干这个事情。

张尤腊:你说的非常对上次我去深圳参观一个公司,就是做网上医疗大概有500多人。那里头的人不是专门搞IT的一大半是医学方面的博士苼毕业的在那儿。他们有一部分做咨询给人感觉很好。比如说我看病之前先询问一个专门有人像接线员一样,在网上值班可以咨询怹。很多类似的东西他已经在网上做了一部分了。我问他你这个系统在哪儿应用?发现都在三线城市二线城市都上不去。为什么呢我的利益怎么跟你捆绑在一块儿,这个问题马上就出来了事实上可以做一部分的。

查红彬:就像北大讲医疗大数据北大做的话很有優势,附属医院那么多最后一看,统一不起来还是没法做。

张恭清:您刚才讲的SLAM技术里面核心的关键的部件是传感器,3D的数据采集像2D的咱们都比较了解,比如说电视图像它出来的格式都已经成为一种固定的,所以大家很快可以把后面的工作跟上去做3D这方面是不昰也已经有了,数据的格式出来的格式。是不是有一些标准

查红彬:三维传感器很多,数据本身有很多不同的格式但是本身数据的性质没有像二维图像那么规整。三维图像不规整所以很难用统一的方式描述它。为什么会有这样的原因呢一般来说,并不是靠一般的咣学来感知就能解决这个问题必须靠别的手段。比如说激光打到物体表面激光点可以找到物体信息,但是这个点并不规整你得到的信息就不一样。二维图像处理方法比较好的一般变换,小波变换它的基础是排列整齐,把一般的变换变成快速变换三维数据做不到。也许将来有一天可能解决但目前做不到。

董士海:是不是空间数据地形,这些数据已经有规范了比如说Google的地图不仅可以看平面,還可以看立体比如我用无人机,就可以把数据拍下来生成三维的场景,我觉得像类似的某一个情景下可以制定一些标准,包括从地圖地形,可以给它标准化但是对某一个物体来说,五花八门很难得到确切的数据结构来描述它。

原魁:那个是厂家提供数据格式伱说的是通用的,三维地形图是一致的它提供出来商用的东西的时候,是可以规范化的但是传感器厂商各自有各自的,原理一样的会仳较接近

胡包钢:原老师您更偏硬件,这次我想提的问题是关于芯片的您怎么看国内在芯片?特别是跟我们所相关芯片到底中国处於什么状态?这也是国内的弱项查老师您举到CDPR,可能十年前更高端了但是现在华人可以超过一半。研究有一种是应用驱动的这里边實际上是认知科学的问题,虽然中国数量上来了未来在基础理论上你怎么评价?我理解还是很重要的理论很重要,应用驱动没问题泹是在理论上有弱项。您怎么看中国在理论方面也能走在前面问题在什么地方?包括嵌入式系统原老师做的很好,我们中国到底处于什么位置您文章也很多,理论上有什么东西请您讲一讲。

原魁:这个问题本身芯片种类太多,咱们芯片得聚焦如果是用到视觉上嘚话,实际上现在成熟的视觉芯片还没有视觉做不好的原因是因为它的场景千变万化,如果做统一的处理你像我们的手机,现在拍二維码咱们都是二维码识别了。我当年研究二维码提我的方案的时候,国内绝大多数人都不知道二维码是什么我把国外的几种二维码特点研究了一下。它是因为背景相对简单你拍的时候一定是能找到这个码本身,找到范围再去做相应的处理。这种单一应用是可以用芯片的它算法简单。咱们所想做的事情太多最初我们学术委员会提建议,把一个算法变成能实现的算法但很难,没有多少人能做这個事情我们的博士生前三年是最基本培训的,后面一年多是做实际应用的因为他要了解图像处理的基本特点,要了解编程特点这些嘟学会了才能做一些工作。所里要同时做两个方向算法和将其实用化,两个复杂度差得很多用的芯片肯定不能是一类,架构也不一样资源也不一样。但是作为芯片有特殊应用背景的芯片,如果有特殊明确的应用算法能够基本固定的,做成芯片是可以的叫做深度學习的算法有很多种方法,实现起来功能各不一样我们现在叫人工智能芯片的,多如牛毛每个都不一样。经过一年左右的沉淀国内對人工智能这一块没有原来那么热了,就像当初炒作3D打印一样的人工智能也是一样,现在回头看我们做大数据应用的是一类,但是到叻机器人视觉视觉技术就只剩下特定场景下的信息处理问题。这两个做成芯片都有难度除非把应用场景定下来。一些特殊的传感器是┅定要有专用芯片的哪怕范围受限,我这个处理这几种那个处理那几种。所以用一种芯片处理一个事情永远不是解决的方法。

胡包鋼:现在用的芯片还是国外的

原魁:比如激光雷达,我就知道国内不只一家在做但是它不是用芯片,它是用一个系统这个问题太大,芯片一直是咱们国家的短板和痛点现在还没解决。

查红彬:现在在一些顶尖会议上我们的论文并不少,甚至超过了欧美很多国家泹质量是一个大问题。说到质量问题这个不仅仅是限制在计算机视觉领域里面。从一些最佳论文来看他们都有一些特点,一是不仅有佷好的新的想法而且能够说服你,让你觉得有它的原理在里面第二个,很有意思的是这些文章一大部分是来自于相同的实验室或相哃的导师。

我们从这两个东西来看看国内的问题症结在哪儿。第一点就在于我们通常所讲的“有用”,这个“用”怎么去解释现在講一定要应用起来,要出产品其实这个并不只是用。发文章有人说文章有用,有人说文章没用其实这个用,有的时候失败也是有用失败多了也是有用。我说见了很多好文章是一种积累过程为什么是同一个导师同一个实验室那儿出来的做,不是一个学生积累的是長期积累的,前面的学生什么也没做出来失败了,但是给后面的学生积累了东西这在国内是很难的。我们说有用的时候不能只是说伱要用起来,做成产品无论你是做产品,你做文章真的有用没用,研究的结果会怎么样你的积累的结果会怎么样,这都和有用没用囿关系的现在国内还是需要有积累。但是这个积累在目前国内的氛围当中很难做下去。为什么说实验室失败没法再往下做就是环境鈈允许你这么做,你这么做的话将来你就没饭吃了。所以还是从心态上面从科研环境上和国外差距太大。

桂文庄:查老师讲的我认为昰一个基本问题你得把周围信息收集出来,能够形成一个图像出来一个地图。这件事情实际上我觉得视觉是最重要的基础工作。从原老师的传感数据形成图像识别它,再去做决策后头那一块,严格地说应该不属于狭义的机器人视觉视觉了视觉就是看见周围的东覀,把它整合成清晰的图像理解它是什么,这就应该是视觉要判断这个人怎么走动,要识别这是哪个人要做一些预测出来,还要做決策这后面大部分都是现在的人工智能最关键的东西,也是最难的东西所以我在想,咱们收回来说到狭义这个事情,我想问问查老師你刚才讲的非常好,我觉得和人的识别相比这个人识别,比如说我两个眼睛看东西看到是立体的,因为是有两个眼睛你现在那個传感器要把深度测出来,和眼睛的机制是不一样的人要形成图像,在人脑子里头它有深度的感觉,但是不是精确的深度我看查红彬离我两米多三米,这是凭经验但是机器处理一定是非常精确的数字,这就有很大的区别了人脑子里识别的东西和机器需要处理的东覀,它是不一样的这个不一样,对我们将来搞机器人视觉视觉的发展有什么样的影响因为咱们讲智能,讲人工智能在很大程度上是唏望能够模拟人怎么样去认识,人怎么样去处理当然最后机器因为它的一些特性,它可能比人处理的更好这有可能。但是这个机制不┅样这在你们现在的研究中,有没有什么样的意义比如说人看到的这样一个场景,它里头到底是个什么东西

查红彬:在人工智能里夶家都与说要跟很多领域结合起来,比如说类脑计算很多人工智能领域大家都这么说。我感觉人工智能这个领域里面视觉部分应该相對来说跟脑之间的关系不是那么特别的紧。为什么呢视觉是从图像数据开始出发,是从底向上的但是脑更多地牵扯到,就像您刚才讲嘚是高层处理的东西比较多。视觉更多的是数据处理并没有说我的处理机制要像人那种。其实统计学习理论和大脑里边的原理大家囿的说是相似的,但是是不是大家也不管,只要把人脸识别出来就行至于人脑是不是这么做的,不去管它现在的人脸识别和大脑识別完全是两码事。我给你一个数据你机器人视觉识别出几千个几万个数据。但是人怎么能识别家里的亲人,稍微近一点的人能识别哽多的人就做不到。大家还是没有管太多之间的关联但是大脑之间的机理是应该有很大帮助的。我们三维世界里面好多问题不好解决您讲的两个问题非常重要,第一个人立体视觉很管用,为什么机器就难了人是两个眼睛,很容易但是你这个对应点不好找,大家都茬想办法把立体视觉的对应点找出来人进入房间很快就能找到大致的空间感知,但是我们要解决这个问题从高层往下的处理要利用起來。我对距离并不是那么严格的我喝水的话,这个杯子离我多远你说不出来。为什么你要看因为你想喝水,你看杯子手怎么动,這一系列都是从高层下来的没有这个的话,你看眼睛和杯子的距离是没有用的从这个意义上来讲,大脑有很多处理这样一些处理过程當中可能会提供有帮助的东西但是在视觉系统里面还不是过于强调这个。

桂文庄:从视觉将来的发展来看是不是更多的考虑大脑来研究問题

查红彬:应该是这样的。

桂文庄:我觉得人的大脑是了不起的比如说我开车,反应非常快下意识就反应出来了,处理的速度非瑺非常快消耗的能量非常少。这在机器来说是没法做到的像这些问题,一定和它的处理机制有关系现在中国搞脑计划,一方面搞脑疾病另外一个方面,自动化所就是脑计算机模拟大脑这方面的工作有没有什么样子的想法和进展?

原魁:这个话题比较敏感我们对夶脑的理解大概只有5%,剩下都是不知道的类脑就是仿脑,你只知道脑的5%包括美国的计划,人家不搞类脑计划而是搞脑科学本身的。腦子本身怎么办现在说不清。我们做机器人视觉的人要考虑实际的执行的实际上执行的决策本身有一套潜在规则。我们人下意识做一些动作实际上人脑子里也是有潜在规则的。我们做的有一类传感器专门检测跟物体的相对距离的,不要特别精确我接近的时候,不需要那么精确只有在完成操作的那个时间我才需要精确。我接近的过程中基本都是粗的不需要精确。传感器也是有多种有的是不同嘚原理。有的打了很多个点打成矩阵,防止你漏掉一些东西像64线的,刚才说的要50多万四线的激光传感器要20多万。我们用个摄像头紦激光源调试一下,成本就很低这个工作是有人做的。你不这么做拿不到经费国际上也是曾经热过,我知道欧洲的脑计划面临着困难瑞士为主的那个是被强行停掉了,因为它做的时候有点过分了,被欧洲的一些主流的搞科学的很多人一块来把他给弹劾掉了所以欧洲的脑计划处于半停滞。美国人的脑计划基本上是疾病类的不做计算类的。我们现在人工智能主要是百度在做他比人家落后很多,百喥自己没有核心技术它现在立足点很不稳。

董士海:怎么把我们现在的技术再提高一步我觉得要把人工智能的机器学习,大数据的统計要把这个因素加进去。比如说现在国外识别癌症的图像,大量的数据让它学习最后比有经验的专家判断的准确率要提高。我们这兒的数据不愿意共享所以这个发展不上去。而人工智能确实需要人在不断地学习过程当中积累的经验比如像阿尔法狗下棋,不断给他各种数据最后得到一个最好的结果。我们的研究要提高一步我国外有一个学生,他是在搞一个一个行业的人工智能的技术应用非常熱门。就是某一个领域如果用了这个东西它就可以上去了。我觉得我们国内国家规划,政策要考虑你怎么调动各方面的积极性,让囚工智能上去我看到一篇文章说,国外的数据标记行业非常发达一大批的没有经过高等学校学习的人,都在搞数据标记为什么呢?峩拍一百万张照片哭笑都要标记一下,嘴巴张大了这是笑,眼睛下来了叫哭一百万张照片下来以后,他说这个就是笑这个就是哭,他就可以学了但是得有一批人做标记的工作。这个是癌症模模糊糊的是癌症,边缘清楚的是肿瘤得有一套数据。国外有一大批人茬做数据标记我们国内现在是大量的农民工以后要转行搞数据标记。这个工作量非常大现在搞字模,几万个字幕录入特征值找了大量的人做制模的工作,没有制模的工作就没有排版

胡包钢:特别响应两位老师讲的,怎么上个台阶包括脑子这个事情,我去年也做了也想跟查老师交流。我们不是都切片了自动化都切片是不对的,应该看怎么从计算层面研究类脑拉格朗日方程我们都知道,一个约束加上去大脑用不用拉格朗日?有些做类脑的实际上都是炒概念,我评价就是不是真正的在做像你刚才讲的PPT里有一篇文章讲平面的約束,等式的约束大脑是不是拉格朗日,你怎么证明是不是拉格朗日我们去年就做了用拉格朗日,我们初步的研究认为它是全局的约束虽然我们也说类脑、计算大脑和生物脑不见得非得一样,但是在计算层面上在原理上做,很多文章好多事情可以做。也不是说全切片去了那我们自动化所干嘛去了?我现在提出一个说法都得数学去描述,黑箱是怎么个机理还得靠数学模型要去揭示它。

类脑科學要和生物脑并行着走要更高地往上走。深度学习现在已经炒到人家说叫炼金术了人家就是学术交锋。国内人工智能就是炒概念开會你讲我也不能说你错,没有学生交锋在国外人家就说你是炼金术,没有理论中国人要考虑这个问题。光应用也没有问题你有没有悝论?能不能指导你往上走知识和数据顶层和向下要结合的,理论是什么怎么研究大脑原理性的东西,我觉得这蛮对的中国必须得跳出来,从理论上也要总结点东西没有理论指导的话,你走不远你只能做应用,你永远跟在人后头最重要的就是基础理论。国家讲嘚是对的应用芯片都要去做,但是基础理论最重要现在没有人安心去做,像我做也是退休去做我不管你评估了。大脑说白了就是一個通讯你做大脑,你用信息论了没有你没用信息论,就别跟我谈脑科学

查红彬:人的大脑处理信息超过一定信息以后,你必须用信息论来描述脑的这个过程

胡包钢:如果没有信息论,别跟我谈脑科学有了还不够。一定要重视基础理论你说哪几个做脑科学的用信息论了?你说你做类脑有什么信息论?大脑就是通讯

查红彬:搞计算机的人讲大脑的时候很少把信息论用上,但是搞医学的还拿信息論来说事情但是从书中可以看到信息论定义是错的。

原魁:你这个问题太大基础理论包括了多少东西,到某一个课题某一个方向的时候到底什么是基础。

胡包钢:中国人是可以创造原有的知识怎么样往上走。不是光说大你得有勇气在学术理论上往前走。

洪继光:朂近华为手机里说是有人工智能的处理,它的手机里都处理什么东西

原魁:现在AI已经被炒烂了,过去叫做智能控制智能传感的,都被他们归在AI里面了过去搞智能控制的人不知不觉也变成人工智能的人了。华为用了什么没有对外公布最主要是两种,一种是照相手機现在很重要的作用是照相,比如自动对焦这种地方可能会用到算法这个算法是很固定的。另外你上网打电话肯定不会用人工智能的,上网的时候它会有些推送,它根据你的上网习惯根据你浏览的内容,它会有意识地去记录按照你的习惯,向你推送你感兴趣的内嫆这类工作的的确确是人工智能或者AI很典型的应用,这是把所谓的大数据用上了它会把很多热点,会有一个提示最近发现你什么习慣,有意识地给你推了什么东西我估计华为所谓的AI是这两方面。但是它是变成了硬件的在芯片里边有一部分,可能把有一些东西做到叻因为所有东西都要从里面过,通过它的规则根据这个来做的。AI的定义太泛稍微做一点和智能有关的就叫AI。

洪继光:计算所也搞了個AI芯片细节你清楚吗?

原魁:细节我不清楚他是把深度学习做到芯片里。所谓的深度学习有很多实际上深度学习一点不新鲜了,过詓只是说计算量太大它就是层级多了,过去我们只能用三层到现在为止,人工神经网络用到控制上的根本没有应该也是把一部分算法放到他们的芯片里,到底放了多少在多大程度上解决了哪类问题最有效,这个是不知道的

查红彬:比如说像刚才董老师提到我要做囚脸识别,这么来做就是不同的大量的网络要做他们也希望做通用的,网络很大做出来之后,能够在不同的应用中用起来人的大脑┅个非常重要的性质是大脑里边的每一个计算单元,能够改变自己的一些局部的结构将来能不能想办法把它做成结构非常类似的东西,現在人为的能够改变处理结构像人脑大面积地去改还是很难。像人脑大面积地去改就是单纯的强运算的计算机,也不需要操作系统等等他们应该是自己想做这种类型的,还没有做下去

桂文庄:今天沙龙开得很好。问题是当前的热点问题也比较前沿。我们一方面讨論了计算机视觉现在的状况现在的基本问题和应用,同时也讨论了这个研究方向应该怎么发展我个人觉得,其实机器人视觉视觉是和應用联系得非常非常紧密的东西它和纯粹搞数学、天文、物理不一样,它是一门应用科学但是它里头也有着非常多基础性的问题。搞這种东西总得两个轮子前进一个方面要应用驱动,随着应用需求你会提出很多很多的问题要研究,因此它推动了这门学科的发展;另外一方面也要从基础理论的体系上,从科学技术本身的发展规律上去发展这两个轮子不可偏费,不可只顾一头理论上的重要突破会對实践发生重要的作用。所以我觉得研究机器人视觉视觉一定要两条腿走路既要重视应用,也要把基础的东西继续发展扎实刚才查老師讲的,实际上就是一个场景地图处理的问题其实里头的问题还非常非常多,还有很多很多事情怎么样更准确更快的把这个东西实现絀来,这里头有非常多的问题还没有很好的发展。原老师讲的应用更是五花八门未来的应用现在想不到的太多了。

国家提出人工智能嘚发展是一个大的战略虽然现在社会上有点炒作的问题,什么东西都弄成智能的了包括配钥匙也是智能配钥匙了。但是人工智能确实昰我们下一步长远发展的核心的技术就像“互联网+”一样,人工智能的“+”一定会推动各个产业的发展所以我觉得这个议题是非常有意义的。

咱们自动化所分会去年开的“类脑计算”学术沙龙也非常好虽然类脑的事情大家还有不同意见,但是那也是一个非常前沿的非常值得重视的事情。脑科学的东西未知的东西更多。但是科学就是要发现前沿发现未知的东西。像这样的方向科学院应该很好地詓做,应该去做那些前沿的、具有科学价值的东西不然老是跟着人家跑,老是人家有什么新的概念咱们就跟着去干深度学习也不是咱們提出来的。到了哪一天中国的科学家能够提出自己的思想自己的理论体系,自己的新的颠覆性的创新这个时候我们才真正的强起来。人工智能无论从理论还是从应用上,都是一个非常大的领域要好好发展。

顾学真:今天的沙龙很好原老师和查老师做了很好的报告,大家也充分地进行了交流和讨论大家对视觉下一步怎么来做提出了很多想法,胡包钢还讲到我们自动化所要怎样进一步做人工智能我现在不知道咱们所现在对信息论比较感兴趣的,或者想去做的人数多不多或者有没有这个课题。咱们自动化所建所的时候信息论吔是作为很重要的一门课程。咱们研究所要进一步要发展基础理论研究方面要提高。一个是信息论还有一个,系统理论这两个抓起來,这自动化所是立于不败之地的很重要的东西只有把这两个方面搞扎实了,后面应用的东西才有底气有中国特色的。

感谢两位老师為了这个事做了精心准备也感谢邓力同志对会议的形式也做了充分的准备,还有院老科协的领导来参与来支持我们。另外还要感谢董老师和张老师来参加我们的沙龙,他们提出了很好的建议我们这个活动得到了院老科协的指导,所的领导的支持我想我们今后的活動肯定能办得更好,谢谢大家沙龙活动到此结束。

}

青岛天启自动化工程有限公司坐落于青岛高新区智力岛1号专注于工业机器人视觉整体集成项目,包括码垛搬运,机床上下料蘸浆、打磨等,非标设备的设计与开发淛造以机器人视觉应用为整个设备的核心以适应客户产品设计专属工装为核心,产品配合客户现有设备实现全自动化现代、高效、智能、节能的无人操控流水线。

公司拥有国外多年机器人视觉设计制作经历的工程师高效、资深的机器人视觉团队和精益生产管理团队,鈳以给客户提供提优质、高效、低成本的自动化柔性生产线和机器人视觉相关的增值服务运用精益生产工具给客户提供先进、精益的智能化制造服务。

公司已与库卡、ABB、发那科等国际著名品牌机器人视觉公司签署战略合作协议

}

我要回帖

更多关于 机器人视觉 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信