• 검색 결과가 없습니다.

하이퍼스펙트럴 영상

최근 공간정보 활용의 가능성과 요구가 증가함에 따라 측량 및 지형 공간 정보 분야에서는 다양한 센서를 이용한 기술이 개발되고 있으며, 특히 하이퍼 스펙트럴 영상은 LiDAR(Light Detection And Ranging), SAR(Synthetic Aperture Radar)와 함께 많은 관심을 받고 있다. 주로 측량용 영상획득에 사용 되는 광학센서(optical sensor)의 개발은 시각적으로 판독이 용이하도록 공간 해상도(spatial resolution)를 향상시키는 방향으로 진행되고 있으며, 최근 구글, 다음, 네이버 등과 같은 포털사이트는 높은 공간해상도(0.5m 급)의 항공사진 또는 위성영상을 이용하여 영상지도 서비스를 제공하고 있다. 그러나 기존 광학 센서보다 분광해상도(spectral resolution)가 매우 높은 하이퍼스펙트럴 센서의 반사특성을 이용하면 시각적으로 얻을 수 없는 지상 대상물에 대한 다양한 특성을 획득할 수 있어서 이에 대한 활용 연구가 활발히 진행 중이다.(Van der Meer 등, 2001).

하이퍼스펙트럴 영상은 [그림 2-6]과 같이 수많은(large number), 좁은 (narrow), 연속적인 (contiguous) 밴드들을 갖는 높은 분광해상도의 영상을 말한다. 현재 국내에서는 ‘Imaging Spectrometry’나 ‘Imaging Spectroscopy’

등과 같은 용어로 사용되기도 하지만 주로 ‘하이퍼스펙트럴영상’ 또는 ‘초분광 영상’으로 사용되고 있다.

4.2. 하이퍼스펙트럴 영상의 특징 및 센서의 종류

하이퍼스펙트럴 영상은 다른 영상에 비하여 각 물체가 갖는 분광정보를 가장 세밀하게 표현할 수 있으므로 기존에 취득되어 오던 영상보다 정밀하고 정확한 분석이 가능하다. 예를 들어 [그림 2-7]과 같이 동일한 지역을 촬영한 하이퍼스펙트럴 영상(64개 밴드)과 다중분광영상(4개 밴드)이 있다고 가정한다.

수계, 잔디, 농경지, 인공구조물 등의 지상대상물들을 밴드별 밝기값으로 표현 하면 [그림 2-2]의 오른쪽 그래프와 같은 형태로 나타난다. 여기서 하이퍼 스펙트럴 영상은 대상물이 가진 고유의 반사특성을 유사하게 표현 할수 있기 때문에 보다 정확한 분석이 이루어 질 수 있다. 또한 농경지에서 생산되고 있는 경작물은 종류에 따라 다른 반사특성을 보이므로 분석을 통해 경작물의 종류까지 파악 할 수 있는 장점을 가지고 있다. 하지만 현재는 센서 개발 기술의 한계로 인하여 위성 하이퍼스펙트럴 영상보다는 높은 공간해상도를 갖는 [표2-1]과 같은 항공기 하이퍼스펙트럴 영상이 주로 취득되고 있다.

[그림 2-7] 하이퍼스펙트럴 영상과 다중분광 영상과의 분광표현 차이

센서명 밴드

CASI 228개 0.40~0.91 512 1.2 1990 ITRES HYDICE 210개 0.40~2.50 320 0.5 1995 HDOS Inc.

AISA 186개 0.45~0.90 384 1 1993 Speim Spectral Imaging Ltd.

AVIRIS 224개 0.40~2.50 614 1 1994 NASA JPL DAIS 79개 Variable 512 3.3 1995 GER & DLR

HyMap 126개 0.45~2.50 512 2.5 1998 Integrated Spectronics Probe-1 128개 0.44~2.50 600 2.0 1998 ESSI

[표 2-1] 항공기 하이퍼스펙트럴 센서 대기보정, 지형보정, 방사정규화와 같은 방사보정(radiometric correction)을 수행하여야 한다. 최근 이러한 과정을 적용하여 하이퍼스펙트럴 영상을 분석

[그림 2-8] 911 테러 이후 주변 환경영향 평가

제 3 장 합성환경과 SEDRIS

1. 합성환경의 정의

모든 시뮬레이션 구성요소는 그 자신이 모의하고자 하는 특정 지역에 대한 지형, 고도, 도로 및 시설물 등에 대한 자료를 내포하고 있으며, 내포한 자료에 의거 합성환경을 구축한 후 모의를 수행하게 된다. 예를 들어 미국 소부대 전투실험 표준모형인 JANUS의 경우 디지털 고도자료(DTED, digital terrain elevation data)와 디지털 지형특성자료(DFAD, digital feature analysis data)를 기반으로 [그림 3-1]과 같이 특정 지역에 대한 합성환경을 생성해 모의에 활 용하게 된다.

[그림 3-1] DTED와 DFAD를 활용하여 생성한 합성환경

대대급 지상전을 모의하는 JANUS 모형이 지상의 지형 및 지물에 대한 합성 환경을 구축·활용하듯이 해상, 수중 및 대잠작전을 모의하는 해군모형은 수온, 염분, 해류, 조류 및 지질 등을 포함하는 해양환경을, 공군 모형은 대기 및 우주 등을 묘사한 합성환경을 구축하게 될 것이다. 이와 같이 합성환경은 시뮬 레이션 체계나 시뮬레이터들이 주어진 임무를 달성하기 위해 내부에서 묘사 하게 되는 환경개체, 행위 및 상호작용 등을 컴퓨터로 표현한 것으로서, 그

[그림 3-2] 합성환경의 범위

2. 합성환경 표현 및 교환기술

국방분야에서 지구 환경을 표현하기 위해 사용되는 환경표현 및 교환 기술은 미국방성이 개발한 ‘Synthetic Environment Data Representation &

Interchange Specification(SEDRIS)’이다. SEDRIS 표준화 기술은 ‘Data Representation Model(DRM)’, ‘Data Coding Specification(EDCS)’, ‘Spatial Refenrense Model(SRM)’, ‘SEDRIS Transmittal Format’, API의 5개 기술 요소로 구성되어 있으며, ISO/IEC JTC1/SC24를 통해 국제표준으로 제정되었고 미국방성 및 나토의 합성 환경 표현을 위한 표준화 기술로써 활용되고 있다.

[그림 3-3]은 SEDRIS 서비스 개념도를 보여준 것이다.

2.1 SEDRIS에 대한 이해

SEDRIS는 물리적 자연 환경에 대한 정확하고 완벽한 표현과 다양한 요구 사항에 대한 종합적 대처 및 교환을 가능케 하는 기본 기술이다. 데이터 포맷이 아닌 데이터 모델을 기반으로 하여 환경 영역을 표현하는 기법을 채택하고 있으며, 3차원 데이터의 구조적 무손실을 보장하고 풍부한 메타데이터(또는

데이터사전)를 공통교환포맷으로 수용함으로써 상호운용성 및 재사용성을 보장 하고 하고 있다.

[그림 3-3] SEDRIS 서비스 개념도

SEDRIS의 논리적 메카니즘은 [그림 3-4]와 같이 공통 데이터 모델로 다양한 환경 데이터 표현 및 요구사항을 모호함이 없이 표현하고, 표준화된 인터 페이스를 통해 환경 데이터를 교환하게 하는 것이다.

[그림 3-4] SEDRIS의 논리적 메카니즘

이와 같은 SEDRIS를 통해 얻을 수 있는 이점은 다음과 같다.

● SEDRIS는 환경 데이터의 단일 표현 및 교환을 통해 데이터의 재작업 비용을 최소화

- 다양한 이기종 시스템간의 데이터 상호호환성 제공 - 다양한 물리적 포맷간의 데이터 상호운용성 제공

● SEDRIS는 기존 데이터뿐만 아니라 신규 데이터를지원

● SEDRIS는 데이터 제작비용뿐만 아니라 재작업 비용을 절감

● SEDRIS는 데이터의 품질 검증을 위한 다양한 도구를 제공하며, 개방형 국제표준으로써 유연성을 제공

SEDRIS의 환경 표현 영역은 [그림 3-5]와 같이 모든 환경영역의 시각적 요소 들은 물론이고 비시각적 요소들을 자유롭게 표현할 수 있도록 하고 있다. 지상, 해양, 우주, 해저 등과 같은 공간적 환경 영역뿐만 아니라 지형의 상태, 바람의 방향, 건물의 속성 및 속도, 날씨의 변화 등과 같은 대기의 변화 등도 표현이 가능하다.

[그림 3-5] SEDRIS의 지구환경 표현 범위

SEDRIS가 제공하는 일종의 데이터 사전인 환경데이터코딩규약(EDCS)는 표준화된 코드체계 및 시멘틱 정보의 제공을 통해 전혀 다른 응용소프트웨어 간의 데이터 상호운용성을 보장하여 준다.

2.2 SEDRIS의 목표 및 정의

SEDRIS는 다음과 같이 미국방성이 식별한 한계성을 극복할 수 있는 방안을 포함하고 있다.

● 막대한 비용, 인력 및 시간을 투자하여 구축한 워-게임 데이터의 재사용이 어려우며 다른 시스템들이 사용할 수 없음

● 동일한 자연 환경임에도 불구하고 시스템들이 요구하는 다양한 관점을 표현하기위해 데이터를 다시 새롭게 제작해야 함

● 다양한 관심 환경 영역(Air, Land, Sea, Space 등)의 동시 표현의 어려움

● 다양한 표현 방법(2-D, 3-D, Map, Sonar 등)의 동시 지원의 어려움

● 다양한 공간 좌표계가 지원되지 않아 시스템간상호운용성 확보가 어려움

● 분산, 네트워크 환경의 이기종 시스템을 제대로 지원하지 못함

SEDRIS는 [그림 3-6]과 같이 다양한 기능적 목표를 가지고 있는데, 이 중 가장 중요한 항목을 기술하면 다음과 같다.

1) SEDRIS의 기능적, 구조적 특성

● SEDRIS는 환경 데이터의 표현 및 교환, 재사용을 위한 국제표준

● SEDRIS는 환경 데이터를 접근하기위한 표준화된 소프트웨어 인터페이스

● SEDRIS는 환경 데이터를 표현하기위한 표준화된 문법, 시멘틱, 구조

● SEDRIS는 환경 개념 및 표현을 위한 프레임워크이며 접근방법 2) SEDRIS를 이용하여 구현할 수 있는 기술 항목

● 환경 데이터 레퍼지토리 또는 라이브러리 시스템

● 합성 환경 저작 도구

● 데이터 컨버팅 도구

● 3-D 모델의 표현 및 교환

2.3 SEDRIS의 기술 구성요소

SEDRIS의 기술요소를 정리하면 [그림 3-7]과 같이 데이터표현모델 (DRM), 환경데이터코딩규약(EDCS), 공간참조모델(SRM), API, 교환포맷 (STF)의 5개 기본 기술 요소와 이를 지원하는 언어 바인딩과 각종 도구들로 구성되어있다. [표 3-1]은 이들 기술요소들에 관한 기능정의를 보여준다.

[그림 3-7] SEDRIS의 기술요소 및 표현방법

기술요소 정의 기술이다. 이 기술의 목적은 독립적인 센서(Multispectral, Hyperspectral, SAR, LiDAR 등)의 개별센서 영상으로부터 획득된 데이터의 지능적 융합을 통해

● 해상도융합(resolution merging) - 탐지 및 피복 분류의 정확도 향상

● DTM 생성을 통한 3D 모델링 및 시각화

● 지형 공간 정보 융합

● 항공 사진 및 3차원 건물 정보의 융합

● 영상과 LiDAR 융합

● 초미세분광 또는 SAR 영상과 특정 정보의 융합

이를 위해 활용되는 센서의 종류로는 광학 센서(위성 영상 또는 유무인 항공 영상), 레이더 센서(SAR), 비영상 센서(LiDAR, GPS/INS) 등이 있으며, 이와 같은 다양한 센서 데이터를 활용하여 원하는 정보를 추출, 가공, 생성하기 위해 동종 및 이종 센서 데이터를 융합 처리하기 위한 것이다.

3.1 다중센서 융합의 기본 개념

지구 관측 위성의 증가와 함께 다양한 사양을 갖춘 위성 영상 데이터의 활용이 가능하게 되었으며, 센서 유형에 따라 다른 공간해상도와 다른 파장 영역의 영상의 장점을 활용하기 위한 것이 다중 센서 융합기술의 태동 이유 이다. 일반적으로 센서에서 감지되는 신호는 공간해상도, 파장 폭, 감지 시간 등의 인자에 의하여 제한을 받게 되며 어느 하나의 인자에 우선하여 영상을 촬영하면 다른 인자는 그 만큼 희생되어야 한다. 즉, 공간해상도가 높은 영상을 얻기 위해서는 파장 폭을 상대적으로 넓게 해야 하고, 반대로 파장 폭을 좁게 하여 여러 파장대의 영상을 얻기 위해서는 공간해상도를 낮추어야

지구 관측 위성의 증가와 함께 다양한 사양을 갖춘 위성 영상 데이터의 활용이 가능하게 되었으며, 센서 유형에 따라 다른 공간해상도와 다른 파장 영역의 영상의 장점을 활용하기 위한 것이 다중 센서 융합기술의 태동 이유 이다. 일반적으로 센서에서 감지되는 신호는 공간해상도, 파장 폭, 감지 시간 등의 인자에 의하여 제한을 받게 되며 어느 하나의 인자에 우선하여 영상을 촬영하면 다른 인자는 그 만큼 희생되어야 한다. 즉, 공간해상도가 높은 영상을 얻기 위해서는 파장 폭을 상대적으로 넓게 해야 하고, 반대로 파장 폭을 좁게 하여 여러 파장대의 영상을 얻기 위해서는 공간해상도를 낮추어야

관련 문서