遥感成像技术:延伸的视界

    将摄影作为工作中的手段,其器械并不局限于我们手里小小的相机,操作的主体也不仅仅是个人。当我们抬头望向天空,或许会有幸与高远的探测卫星四目相对;打开谷歌地球,就像暂时拥有了“上帝视角”……这些体验都是当下的遥感技术(remote sensing)为我们带来的。通过电磁波的传播与接收,我们借助遥感技术感知甚至观测目标的特性并加以分析,被捕获的讯息能够以图像的方式表现出来。自1858年纳达尔坐上热气球从高空拍下巴黎的鸟瞰照片,尝试用照相机拓展人类视野的那一刻起,对“遥感”的实践就开始在摄影的范畴内萌发,并在新兴科技的推动下将“摄影之眼”越推越远。

    本刊记者针对遥感技术在原理和应用层面的基本知识,以及遥感与一般意义上摄影的关联和区别等方面的问题,采访了微波遥感及航天应用工程科学专家,中国工程院院士姜景山。

    请简单介绍一下遥感技术的原理和应用范围。

    遥感技术概念已存在了比较长的时间,自从有了照相机以后,遥感技术就已经开始实践,只是那时候不叫遥感。遥感这个概念是美国人在上世纪60年代正式定名的,但是它的技术基础已经在18、19世纪都有了。遥感的原理很自然地跟人的功能相关,人的功能受限制,所以遥感的目的是看我们能不能把人的“视线”更延伸一点,能看的东西不局限于眼睛能看到的这个范围。仿生生物学里面就有很多用仿生的方法来拓展人的功能。比如说蝙蝠,它就可以看到红外。

    遥感技术要为民生服务,同时为国家安全服务。现在遥感无孔不入。比如说灾害,灾害的分析检测和灾后的重建工作都有遥感技术介入。最近四川九寨沟地震,地震以后马上公布了灾情什么样,灾情以后重建怎么办,这都是用飞机遥感就能看得很清楚的。

    遥感设备和技术所应用的平台包括哪些?

    遥感的平台,包括地面、航空(飞机和无人机),还有近地空间平台(比如离地面20公里的飞艇);再上去就是地球轨道,地球轨道一直覆盖到3万8千公里;再往上就是深空,深空是月球以外,月球我们已经去过了,我们即将要去火星,未来我们要去更远的地方。那个时候我们看到的东西就会是宇宙空间、其它星球、小行星等,我们的嫦娥二号就连小行星都看得到,比如一颗几公里长、几公里宽的小行星也可以把它拍摄回来。

    日常意义上的“摄影”是在可见光范围内进行操作的,那么遥感技术所覆盖的波段又是怎样的?不同波段的遥感技术有何区别?

    现在的遥感技术基本上把整个电磁波都占了,手段都有了,还在进一步发展。从波段来说,遥感分为可见光-近红外遥感、红外遥感和微波遥感。遥感技术正式进入航天应用领域,是1950年代的事,那以后就逐步扩展到这三个光谱都有应用。

    首先说可见光,大家知道红橙黄绿青蓝紫,人眼睛大概能看到也就这么多,最长是红,再长就看不见了。最短的是紫色,比紫还短的看不见。在没有红外和微波遥感技术的时候,人的眼睛应该是最好的遥感。比如我们现在往外一看,看到对面的楼,看得很清楚。只不过太远以后,由于大气等各方面的因素就看不清了,所以人的眼睛现在看相对近处的东西很清楚,但要看更遠的月球、火星、深空这些,靠眼睛就不行了。后来站得比较高的卫星就上天了,现在我们对地观测的遥感卫星的高度一般都是几百公里。那么远的地方往下看,人眼就不行了。我们坐在飞机上面,一万米高度看地面,晴天还是看得很清楚。所以大家觉得有了卫星以后,利用这样好的平台,就算把人放在卫星上能不能看得见地面?后来想到有照相机,就首先把可见光相机放到卫星上面看地球。所以遥感首先从可见光开始的。

    但是,使用可见光相机在下雨的时候,有云彩的时候,有雾的时候,还有黑夜里,就看不见了。所以能不能解决白天黑夜都能看这个问题,如果人的眼睛能看到红色以外再长一点的波长就好了。于是就产生了红外的概念。这个红外有什么特色?它不分白天黑夜,只要物体有温度差别就能看。所以利用这个东西,我们能看到更多的目标,人们的“视线”大大延长。我们估计了一下,如果卫星用可见光相机看地球,能够工作的时间比率是百分之十几。为什么?黑夜它看不见,有云彩它看不见,这些东西都去掉,就只有百分之十几的时间可以看,效率很低。如果添上红外的话,黑夜就能看,这样它能把观测的时间大大延长,大概能达到百分之五六十。自然界里面最低温度是负273度,物体的温度只要高于这个温度,都辐射电磁波,可见光、红外和微波都是电磁波。物体既然有这个特性,我们用这三个手段可以观察物体。比如说,夜里在机场里面停着很多飞机,飞机飞走了,可见光看不到,红外能看到。为什么?因为它白天停在那以后,太阳晒的时候,飞机底下晒不到,所以它飞走以后,飞机原来覆盖的地面和周围的温度有大的差别,只要有这个温差,红外可以成像。这个东西现在用得比较多,除了我们民间里面用得比较多,军用也相当广,比如侦查。飞机飞走以后两三个小时,卫星再过,就知道这是一个机场,知道原来有什么机器在这停着,所以红外有这个功能。

    但是红外也有问题,如果遇到大风大雨,比较恶劣的天气它就不行。所以大家想能不能实现全天候、全天时的看,这是理想化的。所以大家想到波长更长的微波,于是产生了微波遥感技术,我本人主要是搞微波遥感的。我在上世纪五六十年代提出过“微波也能成像”这个原理,将来很可能出来微波“相机”。

    现在可见光有了,红外有了,再有微波的话,这三个同时用,或者需要什么用什么,用它们大概覆盖整个地球,至少能看到百分之八九十。因为卫星轨道的限制,目前全看是不可能的。

    类比一般意义上的摄影,遥感技术生成图像的要求是如何体现的?

    不同物体,它总是有温度不一样,分辨率不一样,层次不一样,辐射的精度不一样。所以如果按照摄影角度考虑的话,这几个方面都需要有标准。

    一个是几何分辨率,看得是不是清楚,能不能分出清晰的层次,别模模糊糊,边界要很清楚。所以几何的精度和畸变的控制应该相当高,方的就是方的,圆的就是圆的。另外一个是辐射分辨率。物体都辐射,可见光也在辐射。可见光是被动的,只要有光照进来,你在房间里面可以照相,照的层次清晰不清晰,辐射的程度不一样,就能把它分辨出来。可见光分辨率最高,红外分辨率稍微低一点,微波利用雷达以后分辨率接近于可见光了。比如说从800公里的高度上看,微波遥感有0.1米的分辨率。现在我们对外公开是0.5米,但是我们肯定要继续做到0.1米。美国现在它说已经有了0.3米的分辨率,这方面我们并不比它差哪去。所以通过遥感生成一个图像的要求跟一般的摄影要求一样,只不过行话可能不一样。我们从遥感角度分成几何的分辨率、几何的畸变,还有辐射的变化。从这个角度来说,跟摄影是一样的,只不过你们所说的摄影是以可见光为主,可能还没有广泛地用上红外,微波更没有用上。

    另外,对遥感来说,是不是可以这样解释:物体达到自然温度以上,原理上都可以进行遥感。现在的摄影,在零下摄氏度情况下可以操作,只要照相机能够运作就没有问题。到北极南极,零下50摄氏度,照相机快门动不了,那就不行了。所以遥感和一般的摄影对环境都是有要求的。比如说我现在到月球,到那首先照相。因为月球的一昼夜相当于地球的14天左右,所以相当长的时间它是黑夜,月球黑夜的温度可以达到零下一百五六十摄氏度,甚至零下一百八十摄氏度,那个情况下谁都不能工作。所以我们怎么办?我们在那等着,留下一定的功率提供给摄影器械,让它保持点温度,等待白天复苏再做工作。这跟我们到南极和北极拍摄的原理是一样的。所以对环境的要求是起码的。

    对环境要求除了温度以外,有一个传播媒介的损耗因素。比如说今天是一个大晴天,对摄影来说看得很清楚,甚至十几公里都大概能照上;但是如果是雾天就看不清楚,所以这就是传播媒介不同的体现:被摄物那边的能量传到这边来以后剩下不多了,没法照相。这里面存在大气辐照的问题,这是最起码的环境方面的问题。不过,从一般摄影角度来讲,大概不太考虑辐照,因为一般拍摄距离都比较近。

    除了这个以外,路程比较远的时候,光线会出现散射或者拐弯,特别是从月球看地球的时候,存在时间滞后的问题。月球到地球距离38万公里,不远,但是总有几秒钟的时间差别;到火星那不是几秒钟的问题了,是几分钟。所以这么远的距离,拍摄到的画面两边不清楚,是因为拍摄设备离被摄物两侧的距离不一样。那怎么办?这个环境在那了,我变不了,我怎么办?我们就放一些仪器专门测量路径和环境,这些仪器不成像,只测量指标,然后参考这些指标,对摄影的内容做校正,把干扰的影像去掉。一般的摄影比较重视去掉杂波,但涉及卫星,不仅仅是杂波,整个环境的温度都在变化。所以为什么说上了卫星以后,遥感手段跟一般的摄影大不同,其中大概一半以上的工作就是保证回来以后成像的图像质量,很多环境因素要把它去掉。

    在您看来,目前遥感技术研究的重点方向是什么?

    我们谈的这个微波是宏观上的微波,微波一般听起来好像是波长比较长,比如无线电波或者电视台播送的那种波,但是我们遥感里面讲的是到太赫兹,太赫兹的波长是亚毫米。我们现在微波跟50年前的微波遥感概念不一样。过去微波遥感刚出来的时候,被分为可成像的(比如雷达)和不成像的。经过四五十年的变化以后,现在所有的微波遥感手段都可以成像,只不过分辨率不一样。比如说我们现在用的合成空径雷达,这个雷达的分辨率比较高,最高分辨率和可见光可匹敌。微波最大好处就是全天候、全天时,但是这是理想意义上。真正做到全天候、全天时那还不行,需要在一定波长之内实现。但是它有自己的用处,用处在哪里?有些波长直接可以穿透大气,有些波长就不行,我们把它叫做大气窗口。可见光也有窗口,比如说我们到河边,比较清晰的水,一米以下的石头、鱼都看得很清楚。但是如果这个水比较浑浊的话,你就看不清楚,这也是一个窗口的问题。假如到南海以后,想看得很深,你的眼睛就不可能完成了。眼睛是把赤、橙、黄、绿、青、蓝、紫综合起来的,如果我们做成仪器的话,以绿光为主,就能看得比较深,这个在军用上有大大的用处。到北边的海,海比较浑浊,特别是渤海湾,黄河出去以后带很多泥沙,是很浑浊的,北边的海水的能见度、穿透力跟南边比差很多。所以我们研究海的时候就要考虑这个问题。到现在为止,我们陆地上遥感用得比较成功,因为陆地上不用考虑海水的问题,就考虑大气的问题。另外,陆地背景本身变化也不大,山不可能明天就移走了,喜马拉雅山的高度在變,这是指在很长时间跨度上,不可能一下子就长高了。所以,陆地上目标是比较稳定的,长时间不变,在整个几万年的历史是变的,但是人类现在寿命也就一百来岁,这个期间变化比较少。所以我现在提出来,遥感未来应该更多地关注海。照样是这些可见光、红外、微波遥感,研究海的表面没有问题,但是海水底下成问题。船出去有时候搁浅,它就是没有看到海底,更不用看到说潜艇,它都是潜在几十米、上百米,甚至一千米底下,对这个我们遥感现在好像能力还不够。所以我这些年一直在提倡,我们要重视海,特别是海底要重视,另外海和陆地的变化、海和大气之间的关系要重视。海陆、海气这个关系得搞清楚。比如说海上温度异常,比如厄尔尼诺现象。所谓的厄尔尼诺就是在赤道的温度异常,温度比平常高。后来人们发现不仅仅是正异常,还有负异常,就是拉尼娜现象。这些异常对我们都有很大的影响。可见光看不到,红外和微波就能够测量温度变化,所以对厄尔尼诺现象和拉尼娜现象的测量,红外和微波用得比较多。但问题是现在海底怎么办?我们正在研究,原来想用可见光看,用一般摄影的方法,这到南海效果比较好,能够看到十几米以下,但是到北部湾就不行,所以需要三个手段同时用,都是希望用摄影看得直观些。此外成不了像的,就看它变化的指标。比如说关于海洋高度的变化,我们现在在卫星上能够测出海洋高度变化了3厘米,这就是我们中科院国家空间科学中心做的。这3厘米是以地球作为基准来测量,它不成像。我带着学生15年以前开始研究这个,这次由以张运华教授为首的团队研发的“天宫二号”的三维成像微波高度计有了新的结果,能够在宽域幅中更高地分辨出目标。本来什么都看不见的,我们现在让它能看得见了。比如说在海上,整个船的轨迹看得非常清楚。比较大的船后面总是有一个V型的尾巴,可以看得非常清楚。这就为我们出海以后的舰船提供了一个指导。分辨率再高一点的话,用可见光照相就能够照到比较大的船的本身。

相关文章!
  • 双目标控制选择Rayleigh阻尼系

    王淮峰 楼梦麟 张如林摘要: 合理选择确定Rayleigh阻尼矩阵比例阻尼系数的振型频率对于准确计算场地地震响应有重要影响。提出以土层表

  • 准双曲线角齿轮加工参数的三维

    王慧文 王恩泽 孙晓娟摘 要:本文提出利用三维坐标测量仪测量准双曲线角齿轮切削加工参数的方法。首先建立准双曲线角齿轮齿面的数学表

  • 浅谈会计模式与会计责任

    李欣泽马宁摘 要:一定时期会计模式的产生与发展是以该时期的会计环境为前提的,而在社会主义市场经济下的会计模式也有其自身的特点,文