在现代科研进程中, 有许多情况必须对空间不均匀样品的分布特性必须加以分析和确认,使用传统的光谱仪仅仅能够以聚焦的镜头扫描样品或者获得整个样品的平均特性,这种光谱和空间信息不可兼得的局限性促使高光谱成像技术(Hyperspectral Imaging)应用而生。
早在20世纪60年代(1960s)人造地球卫星围绕地球获取地球的图片资料时,成像就成为研究地球的有利工具。在传统的成像技术中,人们就知道黑白图像的灰度级别代表了光学特性的差异因而可用于辨别不同的材料,在此基础上,成像技术有了*高的发展,对地球成像时,选择一些颜色的滤波片成像对于提高对特殊农作物、研究大气、海洋、土壤等的辨别能力大有裨益。这就是人类***早的高光谱技术(Multispectral imaging)它***早出现在LandSat卫星上。这些***早的星载图像传感器(例如,LandSat卫星上的Thematic Mapper和法国SPOT卫星上的相机)以离散的几种颜色(或者几个波段)对地球成像,就是人们常说的多光谱成像。
既然多光谱成像(Multispectral Imaging)仅仅以几个连续的光谱波带成像对于我们研究环境就如此有用,为什么不把波带数拓展*多,把光谱分辨率拓展*细呢?因此,用于遥感目的的高光谱成像技术(Hyperspectral Imaging)在20世纪80年代初期诞生了,它***早是机载的成像光谱仪(Airborne Imaging Spectrometer),如今已拓展到**的可见和红外成像光谱仪(AVIRIS),这两种***早都在NASA的JPL中心(NASA:美国国家航天航空管理局)。
从多光谱到高光谱遥感技术的前进也需要仪器的发展。虽然对地球成像而言七个非连续的波段称不上什么光谱成像技术,但是如果使用200个连续的波段,每个波段的光谱分辨率在10nm左右,谁都不会否认这是光谱成像技术。而且人类对***高的追求从来都没停止过,现在光谱成像技术已经发展到超光谱时代(Ultraspectral Imaging),比如,它使用的是空间发射光谱仪(Atmospheric Emission Spectrometer, AES), 这个超光谱成像仪在红外波段就能产生数千个波带,分辨率高达1/cm。
全球**个星载高光谱成像器于1997年在NASA随着Lewis卫星发射升空,它包含了384个波段涵盖了400-2500nm波段,不幸的是这颗卫星控制出现问题,失去了动力,升空一个月后就偏离了轨道。随后,一些实验性的机载高光谱成像器在NASA的DOD(Department of Defense)得到了重点研发,这些机载的高光谱成像系统涵盖了VNIR/SWIR和MLIR(3-5微米),LWIR(又称热
红外相机,适应波段8-12微米)。
技术背景
高光谱成像的数据是一叠连续多个波段成像获得的景色或样品的图像,就是俗称的图像立方体(Image cube)。这个图像立方具有两个空间维度(X和Y),第三维为每个像素的波长或辐射强度。获取这样一个图像立方有诸多方法。
对于实验室或其他静态应用而言,科研级数字相机与电子可调谐滤波片(ETF)就组成了特别的成像光谱仪。电子可调谐滤波片的光谱范围较窄并可以在数毫秒内调谐。商业上常见的电子滤波片是液晶或声光材料做成的滤波片,这些滤波片可以涵盖VNIR到MWIR波段。一个图像获取后滤波片调谐到下一个波段采集下一幅图像,这样一个波段一幅图像地多幅图像罗列起来就可组成一个图像立方体。由于滤波片的透过率强烈依赖于波长,每个波段采集图像时都必须控制相机的曝光时间以获得***大的动态范围。由于成像时曝光时间、滤波片的光谱特性、传感器的量子效率、光学系统以及周围光照环境等诸多因素不稳定,图像获取还必须进行校正。
对于遥感应用而言,前部分的光学部件把现场景色的窄条成像到光谱仪的狭缝处,离散光学元件(光栅或棱镜)在狭缝处把每点的光谱分离开,这些光谱恰*被置于焦平面处的二维探测器列阵上,这样就可以记录下狭缝处的多个连续波段的图像了。相机的每幅图像就是图像立方中的一条Y-Lambda图像。这种技术一般伴随着比较严重的光学畸变,为了减少光学畸变,成像光谱仪就不能出现散光或像差问题,通常使用torroidal 光栅来克服这个问题。这种成像技术通常用于星载或机载用于覆盖x方向上长条空间数据,这就叫做推掃式(pushbroom)数据采集模式。