图文报道
<
>

马灵霞:如何让卫星看懂地球

泰伯网 • 2018-06-21

摘要: 这些年随着高分专项、空间基础设施、商业航天的发展,我们国家自主的遥感资源得到了非常大的丰富,达到了比较高的水平。

马灵霞:如何让卫星看懂地球

主持人:感谢李聪凭借20多年在人工智能技术的沉淀,商汤科技深耕遥感领域,为行业打造先进的落地解决方案。下面有请商汤科技高级产品经理马灵霞,为我们介绍商汤科技智能解译方案,如何让卫星看懂地球。

马灵霞:

各位专家大家下午好,下面由我代表商汤科技介绍我们的SenseRemote产品,我会介绍一下商汤科技人工智能遥感解译平台,以及在目前的阶段取得的技术成果。

首先作为一个遥感行业的从业者,非常荣幸能够见证我们国家遥感事业的飞速发展,尤其这些年随着高分专项、空间基础设施、商业航天的发展,我们国家自主的遥感资源得到了非常大的丰富,达到了比较高的水平。这些都为我们遥感数据在各行各业的应用奠定了非常良好的数据基础。但是我们面临这样海量的遥感数据同时,我们解译识别的自动化水平、智能化水平、处理精度,都需要进一步的提升,才能充分挖掘我们海量遥感数据的价值,满足我们不断增长的遥感应用的需要。

大家都知道美国一直是航天大国,另外美国在人工智能领域也是非常强,刚刚李聪提到我们在最近的全球比赛上,在300多支参赛团队里拿到了第一的成绩,但实际上这样的比赛不是第一个。去年的时候美国的空间情报局举办过一场遥感影像解译的比赛,他是希望能从众多的参赛者里面寻找一些,能够从卫星影像中自动提取目标的团队,帮他们做后面的工作。美国的研究人员已经用人工智能的技术分析了卫星图片,尤其针对我们国家的导弹发射阵地,也训练了深度学习的模型,能做到非常快速的检测,从原来纯粹靠人工60小时的时间,提升到了仅仅42分钟。从生产效率上提高了85倍。

商汤科技是一家人工智能技术型的公司,我们除了在人脸、自动驾驶等领域有非常好的技术落地之外,也针对遥感的影像解译的需求,整合了一套我们自己的人工智能遥感解译平台,并且以这样的平台为基础,结合遥感行业内的需求,为广大的客户提供一些服务。

介绍我们具体的技术案例之前,我先简单介绍一下平台。因为这个平台是我们日常工作的基础。我从一个项目执行的角度,以一个人工智能从业者的视角来解读一下我们的平台,以及我们整个平台的工作流程。

一般情况下为了完成一项基于深度学习的遥感应用,我们获取到数据之后,数据的标注、模型的训练、模型的优化以及最终的应用,是必不可少的环节。所以我们的平台包括了遥感数据的标注系统,遥感解译协议系统,以及遥感解译应用私有云,这些全部都是跟整个遥感的需求密切相关的。另外,在这个需求之下其实还有超算系统,以及我们的训练框架。超算系统其实就是一个基于云的计算资源和存储资源的支撑以及管理平台,刚刚我们的研究员也介绍了,我们目前已经有了8000块GPU卡,也有十多个集群,最大的集群目前可以支撑800块GPU卡同时的训练。另外是训练框架系统,也就是刚刚研究员提到的Parrots,是我们商汤自主知识产权的训练框架。

另外是遥感数据的标注系统,拿到遥感数据之后我们要清洗,就是为了对我们拿到的数据做预处理,做样本快速的标注。目前具有全人工标注以及半监督标注的能力,可以非常快速的去构建我们的训练样本库。我们的标注系统目前能支撑的标注任务包括各种目标的监测和识别,以及我们不同时期成像的遥感影像变化监测的标注,还有各种各样的土地利用的分类,或者某一地类的提取。另外我们内部也有非常完善的标注数据和标注任务管理的软件的功能。

另外一部分是遥感解译学习系统,这当然是面向我们内部的研究人员,我们基于这些系统来完成整个模型的训练,以及一轮一轮模型的优化。该系统内置了我们商汤所有的研究人员在深度学习领域的一些知识积淀,也就是说我们不同任务的网络结构库。尤其是我们在遥感领域的各种优化的网络结构,这些是我们为各行各业客户提供非常快速服务的基础。

另外最后,这是我们目前对客户开放的,是我们遥感解译的处理。刚刚我讲的部分,我们一般在项目的执行过程中都是关起门来在公司内部完成的。我们交付给客户的是遥感解译的SDK,我们目前也在开发自己的私有云平台。我们整体的工程能力可以把研发取得的一些模型,非常快速的来做应用端的开发,以及面向客户的集成。这里面我特别标红的部分,我们提供到客户那边的都是基于业务数据以及我们的网络结构,经过我们研究员的训练得出的一些遥感解译模型。

我这边简单说一下平台大概的部署和使用,刚刚提到了我们有一个超算系统,我们的训练框架、遥感数据解译系统,以及遥感解译学习,私有云,都是部署在这个平台上的。对外提供标注人员做样本的标注,还有提供给研究员的解译学习的客户端,还有在整个流程里面不断的网络结构的调整以及优化,还有整个IT的运维管理。对外的业务系统的集成方面,我们可以提供的是一种云调用服务的接口,不管我们的业务系统是Windows平台还是其他的,或者是C++的架构,或者是Java写的软件,我们其实都可以非常快速的提供集成的服务。

另外,我从整个项目的执行过程中来向大家展示一下我们公司一般如何来完成人工智能解译的项目。首先我们拿到一个项目的时候会获取非常多的业务数据,第一步就是我们会投大量的人工,来做半监督的标注,形成第一批的训练样本库。这个训练样本库会用研究员做模型训练,生成第一个版本的可以供工程使用的模型,这个模型虽然不是那么完美,但是基本上也可以给工程端用。这个模型会非常快速的集成到遥感解译云服务里,供我们客户方的业务数据解译的行业应用系统,基于他们新的的业务数据,来做解译的处理。当然在最初的时候模型不可能在一个版本就做到非常完美的状态,所以我们不可避免的在项目的执行周期中,要去对业务系统里面解译出来的这些数据做质量的监督和评价,然后找到其中的问题数据。然后我们的研究人员会基于这些问题数据来寻找新的解决方案,当然非常多的情况下是需要对这些问题数据的场景来做新一轮的标注,然后在这样的标注上去不断地扩增样本库。然后再根据这种扩增后的样本库,以及针对我们新出现的问题做模型优化。这个模型的优化包括网络结构的调整,以及训练方式的变化。经过这样螺旋式的几轮之后,整个模型在业务应用里面的问题就会比较少。在场景的兼容性,以及工程的适应性方面就会达到比较好的水平。

白色的两个部分我着重说一下,这是我们客户方的系统。我们整个的流程是跟业务系统非常紧密的绑在一起的。

刚刚介绍的是我们的人工智能遥感解译平台,我们的研究和工程团队在过去的时间里,基于这样的平台然后以及基于我刚刚介绍的流程,结合不同客户的需求,我们也研发了非常多的应用点。下面我向大家介绍一下目前取得的一些技术成果。

首先简单说一下我们大概做过什么,我们针对整个遥感数据处理的流程,包括预处理里面的云监测和雪监测,还有做DOM的云监测,包括去云,以及我们在遥感解译信息提取里面的目标监测,比如说像飞机、船,飞机的关键点,还有各种土地的分类,包括某一个特殊地类的提取,比如道路、建筑物、水体、耕地,我们或多或少都做过一些探索。还有就是我们现在也在做的变化监测,这跟之前的变化监测方案稍微有点不一样,我们是直接拿不同时间成像的两个影像,在这个影像上基于深度学习的技术找其中发生变化的区域。首先说一下飞机监测,我们商汤科技也大概用自己的力量建了一个全球十万架飞机的样本集,然后我们建完样本集之后也在高分的卫星,以及Google开源的地图数据上做了非常多的优化。目前在我们的数据集上,我们的召回率已经超过了95%,我们的虚景率控制在了5%以内。目前可以处理的数据类别,既可以处理大家看到的这种彩色的图像,也可以处理我们常规的黑白图像。再处理速度方面,刚刚李聪讲过我们有非常复杂的方案来保证整个模型在工程应用里面的速度,我目前可以做到的是GF-1的数据1.8万×1.8万的图像,单张GPU卡上可以做到一分钟以内,把图像中的飞机以及每架飞机的关键点都提取出来。后面是不同效果的展示,大家看到的是GF-2的0.8米的数据,是我们国内的海口机场,绿色框是提取出来的飞机,红色的五个点是我们在每一架飞机上提取出来的关键点。我们的算法是非常准确的知道哪一个点是飞机的头部,哪里是尾部。可以基于这个结果再来提取进一步的信息,包括这个飞机朝哪个方向停着,长度是什么水平,有这些信息之后可以得到飞机型号方面更进一步的成果出来。

这是我们在其他的数据源上,比如说GF-1的两米尺度上的数据监测效果。我们还从天地图,扒过不同分辨率的数据做软件的测试,这是当时测试的数据。

刚刚大家看到的是我们的飞机监测,我们目前支持的输入数据在0.5米到3米之间的影像都能支持,彩色、黑白都可以取得比较好的检测效果。

另外,目前还在投入更多力量做的,就是更小的目标,我们遥感影像的船。现在也在做非常多的数据标注以及模型优化的工作,我们希望把海上特别小的舰船的目标,提到非常高的水平。

另外,刚刚介绍了我们现在还在做的就是变化监测,我们基于不同时间拍摄的数据提取其中的变化图斑。以一个数据为例,这是拉斯维加斯的数据,大概的成像时间是2015年。我们也拿到了2016年的整个城市的影像,我们找到了他们的重叠区域之后,来提取其中的变化图斑。红色的大家看起来是点,实际上都是一个轮廓,这个轮廓里面就是发生变化的区域。我找一个局部的地方放大之后就是这个效果,这是2016年的数据,大家可以看一下,整个城市在红色的地方发生了非常明显的变化,有非常多的沙地变成了建筑物。

现在介绍另外一个应用就是路网提取,我们也做了一些探索,当时提取的道路是基于村村通等级的道路,提取全国各个地方的城乡接合部和农村道路的情况。这个软件现在已经在客户现场运行了一年的时间了,我们的软件现在已经处理过两遍,中国全境的数据。在测试方面我们的召回率和监测率都能达到90%的水平。在整个软件的形态上输入遥感影像之后,可以给出一个,中间图就是道路分割的产品,其实也是一个属于分割的范畴。另外,我们可以在分割的产品基础上继续给出来道路的中心线,以及道路矢量化的产品。这是我们早期的时候给客户提供测试的时候做的事情,我们曾经在自己内部的一台工作站上面,有一张GPU卡,我们处理了20个城市,大概有66万平方公里的数据,我们大概用了14个小时,就把这20个城市的矢量化的路网全部都提取出来了。

后面是我们在不同的城市,向大家展示一下路网提取的效果。这是北京市郊区的数据。大家可以看到这里有非常多的线条没有提,大家都知道深度学习可以融合非常多的特征,并不是说只要是线我们就会提成道路,我们会参考更多的特征,比如说道路两端有没有连接建筑物,这也是我们的深度学习模型学到的一些特征,因为我们的客户要的只是这样的数据,他并不要一条路两边什么多没有,那就不叫村村通了,哪儿都没有连。

这是南方的数据监测效果,黄色的线条是我们提出来的道路。我们用同样的方案还做过另外一个尝试,用道路提取的方案去做耕地的提取,尤其是耕地的田埂的提取,我们把准确的地块分出来,这是当时的数据成果,当然这个分辨率比较高,这是0.8米的GF-2号数据,这是我们当时模型的结果,我们提取的田埂的概率图。这样的数据是我们在数据上最终得出的经过,我们整个的矢量。

另外做了更多的探索,针对遥感影像预处理的识别,对云和雪的识别,这两个识别一直是预处理环节一直没有被解决的问题。我们也是国内第一家尝试用深度学习技术解决这个问题的单位。这个是我们早期基于GF-1的8米的光谱,建了一个非常大的样本集。我们的测试数据非常多,这是吐鲁番北部的2015年的数据,这是我们的云和雪,蓝色部分是雪,红色部分是云。我们的测试数据,我估计我们测过不下一万个,另外我们也做了其他的云和雪的监测,这是天绘卫星的数据。跟刚刚的图一样,蓝色的是雪,红色的是云。同样的数据我们还做了水体的提取,这是GF-1江苏数据的影响,蓝色的是在这个影像上提取的水体。还有洞庭湖的数据。我们其实在特别早期的时候还做过基于特别高的分辨率,比如说WorldWiew,0.5米的,13个地类。这个是同样的处理效果。

这个图相信大家刚刚已经看到了,这是我们近期做的怎么去提取一个独栋建筑,把轮廓尽量真实的提取出来,这是我们提取的结果。

下面我来介绍一下我们做了这么多的研发,在整个业务场景的落地方面,其实我们也做了一些工作,我介绍几个案例。

第一个,早期的时候我们给客户做的云和雪的监测,就跟刚刚讲的螺旋式的过程是一样的,我们大概经历了三个阶段的测试。当然不是每一个阶段的测试都是一轮模型优化,大概是第二和第三阶段的时候,我们都做了两轮的模型优化。最终一次测试的时候,我们针对全球,右下角是我们当时所有的测试数据分布,测了整个全球各地不同的成像时间,时间的跨度应该是从2012年到2017年,大概五年的时间的样本,最终先了大概有一万多张来做测试。我们最终的测试结果是我们的精度已经比人类的质检员的精度还要高。尤其是在特别复杂的环境下,我们的作业员其实也没有办法非常准确地去区分这个图里到底是云还是雪,人工智能的技术可以达到比人的辨识度更高一点。

另外是我们和合作伙伴一起探索道路、水体、云雪,这种典型要素的信息提取工作。这个技术完全都是在两米分辨率的数据上进行的,我们基于两米的数据提到的水体。黑色的线条是我们做的道路分割效果,红色的是我们提取出来的矢量化的路网,白色的部分是提取出来的水体。当然我们除了在普通的遥感影像上做AI技术的落地之外,我们也曾经尝试过把深度学习技术引入到高光谱的领域。这是气象的数据,气象的光谱非常多,我们当时也是做了一个技术验证,我们基于像气象卫星的高光谱数据做云的监测,我们把大家公认的精度最高的MODIS数据拿出来,作为训练样本做深度学习的模型,然后用到新的数据上来做技术的验证。我们当时验证的结果,我们即便是拿他们的数据做样本,我们的深度学习模型取得的精度还可以更高,尤其对沙漠或者极地这种难分的场景都有改善。另外也把这种技术在我们国家的风云的卫星上做了尝试,基于深度学习的技术可以得到非常大的改善。这是我们的效果,基于高光谱的数据提取云,我们把每一个像素到底属于云还是晴空,做一个判别。

由于时间的关系,我的分享就到这里。

李聪:人工智能机器视觉如何解读遥感大数据

泰伯网 • 2018-06-20

摘要: 坚持原创,让AI引领人类进步。

李聪:人工智能机器视觉如何解读遥感大数据

6月15日下午,在WGDC2018人工智能遥感解译大会上,商汤科技高级研究员李聪做了专题演讲,以下为演讲实录。

主持人:各位来宾,下午好,感谢大家拨冗莅临WGDC2018商汤科技专场。商汤科技是全球领先的人工智能平台公司,秉持着坚持原创,让AI引领人类进步的理念,与我们共同来探讨人工智能遥感影像解译方案。

地球是我们赖以生存的美丽家园,人类自诞生以来就没有停止过对这颗美丽蓝色星球的探索,从盘古开天到沧海桑田,那些传说中记载着人类文明以来我们对地球的认知,现代文明的发展,遥感技术的进步,让冰冷而陌生的地理物质变得温热而熟悉。进入人工智能时代,我们更加愿意拥抱新技术,用更加自动化的数据处理与分析能力。下面有请商汤科技高级研究员李聪,为大家介绍人工智能机器视觉是如何解读遥感大数据的。

李聪:

谢谢大家,感谢大家的耐心等待。我是商汤科技的算法研究员,主要负责深度学习技术遥感方面的应用,今天由我来为大家分享一些基于深度学习技术在遥感领域中取得的技术成果。

首先,对我们公司进行简要的介绍。我们公司到目前成立还不足四年,但我们在人工智能科研技术里面有了20年的科研积淀,目前员工超过1700名。人工智能方面的博士超过150名,我们公司在今年上半年已经获得了累计超过12亿美元的融资,在人工智能领域目前累计融资全球最大。同时,我们的技术也在各个行业里有了深入的应用,比如金融、智慧城市、智能手机、AR芯片、无人驾驶等方面。

能取得上述的成绩离不开我们公司在以下三个方面的坚实的工作,首先是我们有深度学习平台Parrots,是我们自主研发的,拥有自主知识产权,面对我们现在超大规模的网络、超大数据的学习以及复杂关联应用网络方面有突出的优势。为了加快深度学习模型的训练,算法的迭代优化,我们还有深度学习超算中心。我们深耕多个领域进行AI原创技术的研发与积累,目前希望打造中国的人工智能时代的国家电网。目前我们已经在14个垂直行业里面与700多个国内外知名企业进行了深度学习,并且在市场占有率上居于首位。这是我们的自主原创的深度学习平台Parrots,我们有自主知识产权,不必担心受制于人。我们可分布式的训练必不可少,我们也对底层代码进行深度优化,提升了运算效率,降低能耗。为了应对复杂的需求,我们的平台同时支持复杂关联应用模型的快速便捷的部署跟搭建,具有高度的可伸缩特性。这是我们目前拥有的GPU超算集群,目前拥有超过8000块GPU卡,在多地搭建了10个GPU集群,最大的连接规模超过800块GPU卡。

我们的技术也在计算机视觉里面多项全球的赛事获得了验证,参赛队伍有IT知名企业,还有科研院校。我们的任务包括分割检测、分类识别、跟踪、场景深度估计等多个任务。在6月1号结束的CVPR上,在土地分类的任务中我们也取得了冠军。完成该比赛的只是我们一名大四的实习生,这其中离不开他自身的努力,当然也离不开我们前面提到的软硬件的基础,和我们各项技术的积累。

后面通过两个案例更具体的介绍一下基于深度学习技术在遥感解译方面的应用。我们是以光学遥感影像的解译为主,先介绍两个方向,一个是分割,另一个是检测。分割的主要技术,现在处理的主要是在土地利用类型分类的问题上,具体应用到遥感场景的时候会有这样几个问题,首先遥感场景里面对的待分类的地类有分布广的特性,通常在图像上有大面积的分布,比如说图中的耕地、水体、林地等地类。然后相比起通用场景下的分割,我们遥感场景里的地类缺少结构信息,比如说我们右边的这几个场景,如果说我们想对人体进行分割的时候,我们会知道人会有头部、四肢这样的结构信息,如果我们去进行一个车的识别跟分割的时候,知道车有车轮、车箱、车头这些部件,右图建筑物的分割,我们知道如果来分割一个矩形物体,然后外面有好多的窗户的部件,可能是建筑物。可能在我们遥感场景中就缺少这些必要的结构信息。还有传统的解译方法主要有两类,一个是面向像素,一个是面向对象。但是由于我们遥感场景里面的问题多样性,场景的复杂,如何去设计更好的特征进行特征的选取和融合,以达到更好的解译效果。这是一个非常关键的问题,我们以6月1号结束的比赛里面,土地利用类型分类的具体任务,给大家介绍一下我们的解决思路。

首先我们搭建了一个网络,主要有三部分组成,也分别针对于刚才提到的三个问题进行了充分的剖析和优化。首先第一个是我们建立了Backbone,这个Backbone是满足我们处理大区域图像的诉求,应对了我们前面提到的遥感场景里面的分布网络特性。第二个部分是我们多使用了道路信息,让它作为一个辅助类增加结构信息,以辅助大类之间准确性的判断,后面会有具有的效果。第三个部件是我们设计的深度融合模块,这个模块会使不同层次的信息进行深度融合,同时保证了整个网络梯度信息回传,能提升细节,又能优化模型训练,最后实现更精准的分类效果。

经过这三个模块,我们的模型就能达到很好的分类效果,最终在我们的原始指标上提升20%以上,同时取得第一名的成绩。

为了证明模型的稳定性,还同时将我们设计优化的网络应用到了一个建筑物提取的任务上,我们使用了跟spaceNet challenge建筑物提取的数据集一样的,我们跟之前的指标进行了比较,可以看到总体指标上我们已经取得了大幅度的提升,超过5%。尤其是在这些比较困难的城市上,提升幅度已经超过了10%。如果大家对深度学习在分割任务上比较了解的话,在通用场景下mask-rcnn是一个稳定的模型,我们发现各个城市已经取得了优于mask-rcnn的精度,下面给大家看一下我们的效果。首先我们用前面的网络提出来一个关于建筑物的概率图,然后进行矢量转换,叠加到原始影像上,就出现了右边这个具体的效果。前面的具体的任务主要是介绍一下深度学习技术的成果,后面一个就是目标检测的问题。

目标检测同样有三个自己的特点,首先我们的遥感影像通常数据特别大,1万×1万,甚至更大。现在深度学习的目标检测通常是在一个尺寸比较固定的小图上处理的,比如说500×500的大小,所以在处理大图的时候要把它裁成若干个小图,一下子就会多达几千个,普通网络的处理效率简直就没法忍受了。另一个是遥感场景里的目标,通常尺寸比较小,大部分集中在几个像素到几十个像素之间,如何保证这么小的目标有比较高的召回,不遗漏我们需要检测到的目标是非常核心的问题。另外一个问题,当我们保证关注的目标不被漏检的时候,是不是可能会导致产生特别多的虚警,保证高召回跟高虚警的目标就变成了特别需要关注的问题。

我们以大图像上的飞机检测给大家做个介绍。首先我们整个网络有四个子模块构成,前面介绍的两个是特征提取的小网络跟分类的子网络,这两个网络是为了进行图像处理的提速,就是前面说的要处理几千个小图像,会优化每一次的处理效率。另外一个目标检测的子网络,主要是针对于前面提到的特别小的目标设计的,我们既要保证我们的小目标能够被高效的召回,同时又不引入特别多的虚警。另外一个就是为了加强大家在具体用我们模型时候的用户体验,我们会对模型的虚警进行进一步的优化,这个优化是结合在通用场景里面大家常用的多任务联合训练的思路,将飞机的关键点检测子网络融合到其中,同时这个子网络还有一个优势,如果我们的数据里还有坐标和分辨率的信息,那我们也能够提供准确的飞机的方位信息,辅助我们后面进行更深层次的飞行型号识别的任务。通过总共四个子模块的优化,就实现了在大尺寸的遥感影像上对小目标的高精度的检测。

首先我们介绍一下特征提取小网络。我们对模型的网络结构进行了深度的优化,同时对参数量进行了极大的压缩。这次给大家展示的具体的实践效果,所使用的网络,我们的模型参数仅有39万。大量的网络参数压缩也会显著降低内存消耗,提升整个小图的处理效率,为我们大图的CPU平台的处理提供了可能。

第二,我们设计分类子网络,要对大图下的小图进行处理,后续的流程就是做子网络的很多的任务,比如说关键点检测。有的时候小图上没有飞机,我们没有进行后面的两个操作,所以我们增加了分类的子网络,只判断这个小图上有没有,有的时候才处理,所以可以节省后面两个子网络的时间,节省的时间大概在20%到30%之间,同时我们也不需要单独设计的特征提取,我们后面的三个子网络都是共享前面特征小网络里面的特征。

我们再具体介绍一下目标检测子网络。这里面让我们考虑两个内容,首先是在小目标检测上关于anchor的正对性优化设计。经过我们的优化极大的提升我们对小目标的召回。

下面是另外一个问题,我们有了这个小目标的召回之后,我们怎么能保证我们的小目标召回出来的都是正确的,而不是说把其他的类似于飞机的东西都检测出来了。我们就设计了一个多尺度的特征提取跟融合方案。比如说小飞机,发现旁边还有一个检测清晰度更高的飞机,当前这个目标就很有可能被预测成飞机,是这样的关联。通过这两部分,我们就能既提高小目标的召回,有能有效的抑制它的虚警。

我们想对前面做出来的关于目标的检测做出来的更进一步的虚警,实际的应用中大家会发现在飞机上,其实你特别容易检测出来一些类似于飞机的东西,当成一个正样本,导致你最终的结果有好多的虚警。我们就设计了一个关键点检测的子网络,这对我们一开始获得的初步的飞机检测结果,进行关键点的检测,用几何信息判断是不是真正的飞机。

下面是机场的具体的效果,设计了不同颜色、不同尺寸,甚至有一些高度上的重叠对象。正常情况下我们会拿到一张特别大的影像,也是我们普通的影像,对两万×两万左右的影像,除了飞机场很多情况下都有飞机,只是大家不太关注。通过我们的算法也能很高效的给机场外的小飞机进行高精度的检测。

前面我们通过土地利用类型分类和建筑物的提取,加上最后在目标检测方面的一个飞机检测具体的案例,介绍了我们部分遥感应用上的探索。其实我们现在已经取得了很多的技术成果,到目前为止已经有了关于技术的20多个发明专利,而且其中绝大部分的技术已经被成功的应用到了我们具体的业务场景里,关于这一部分一会儿我们的产品负责人会进行更细致的介绍。我的演讲内容就是这些,再次感谢大家的光临。如果大家对深度学习技术的遥感方面的应用比较感兴趣,也特别期待大家会后进行深层次的交流。特别希望我们商汤科技利用自己的技术和我们的努力,真正能够为遥感技术的应用奉献一份自己的力量,谢谢大家。

商汤科技用AI赋能遥感影像智能解译 推动空间智能

泰伯网 • 2018-06-16

摘要: 空间智能正在成为时代变革的催化剂,随着移动互联网与人工智能技术的快速升级,驱动着众多垂直行业的智能化进程。

6月14日-15日,中国空间信息产业最前沿、最权威的盛会“WGDC 2018地理信息开发者大会”在北京举行。全球领先的人工智能平台公司商汤科技SenseTime亮相大会,展示了前沿人工智能技术在遥感解译领域的成果与应用。商汤科技副总裁、工程院院长沈徽出席大会并发表演讲,畅谈人工智能技术驱动空间信息产业智能化发展的前景与期待。

商汤科技用AI赋能遥感影像智能解译 推动空间智能商汤科技副总裁、工程院院长沈徽发表演讲

沈徽在以“智能视觉,看懂世界”为题的主题演讲中表示,如今人工智能技术已经快速渗透到各行各业,并且通过技术提升驱动生产力升级,不断为产业带来变革。商汤一直以来致力于空间信息产业与AI技术的结合,未来,将继续以领先的视觉AI技术与平台化能力,与合作伙伴一起更好地“看懂世界”,为空间信息的智能化发展做出努力。

商汤科技也在现场展示了视觉AI技术与空间信息结合的产品——SenseRemote遥感影像智能解译解决方案。该方案将深度学习技术引入遥感数据解译应用中,全方面提升遥感数据的自动化处理、分析能力,像素级解译分类精度超过 95%、目标检测准确率优于 98%。同时还兼具商汤AI产品强大的快速迭代能力和丰富的场景适用性,可以应用于包括目标检测、变化检测、路网提取、云雪检测、水体提取、土地利用类型分类、建筑物提取等多个遥感应用场景。

商汤科技用AI赋能遥感影像智能解译 推动空间智能用SenseRemote进行土地利用类型分类

SenseRemote遥感影像智能解译解决方案是基于商汤科技原创的深度学习平台Parrots打造,具备20余项遥感解译技术研发专利的积累,以及实际业务场景的需求分析和技术落地经验。在核心模型设计环节,商汤科技还针对遥感数据以及任务特点设计了一系列遥感专用模型,为相关遥感信息解译提供了有力支持。

目前,在遥感影像智能解译方面,商汤已经拥有多位重量级合作伙伴,包括国家卫星气象中心、国家测绘地理信息局卫星测绘应用中心等。相信随着全球遥感观测数据的快速增长,AI与遥感解译的结合将越来越扮演重要作用。

空间智能正在成为时代变革的催化剂,随着移动互联网与人工智能技术的快速升级,驱动着众多垂直行业的智能化进程。未来,商汤科技将持续深化在AI核心算法与技术层面的探索,以赋能百业的核心平台化优势,为空间信息行业带来更多“创以智用”的成果与突破。

联系我们
CONTACT US

赞助参展

郭女士

010-62101808-610

guozj@taibo.cn

票务咨询

李先生

010-62101808-629

lijie@taibo.cn

媒体合作

宁女士

010-62101808-618

ningmin@taibo.cn

会议地址

国家会议中心

总机:+86 10 8437 3300

电话:400 698 2008

关注泰小伯

拉你加入WGDC交流群