• 검색 결과가 없습니다.

기상 재해대응 의사결정지원시스템 개발을 위한 그리드 기술 연구

N/A
N/A
Protected

Academic year: 2021

Share "기상 재해대응 의사결정지원시스템 개발을 위한 그리드 기술 연구"

Copied!
43
0
0

로드 중.... (전체 텍스트 보기)

전체 글

(1)

한국 과학 기술 정보 연구 원

↑ 3 cm

5 cm

기상 재해대응 의사결정지원시스템

개발을 위한 그리드 기술 연구

↑ 4 cm

ISBN: 978-89-6211-301-3

(2)

겉표지 [뒷면]

한국 과학 기술 정보 연구 원

↑ 3 cm

(3)

기상 재해대응 의사결정지원시스템

개발을 위한 그리드 기술 연구

권오경, 김상완, 함재균, 조민수, 이필우

(4)

목 차

제1장 개요 ···1

제2장 그리드 컴퓨팅 기술 개요 및 동향 ···3

제3장 예측모델링시스템 기반 기술 ···11

제4장 예측모델링시스템 설계 ···17

제5장 결론 ···39

(5)

제1장 개요

제1절 기상 재해대응 의사결정지원시스템

기상 재해대응 의사결정지원시스템이란 ?

기상/기후 및 물에 관련된 재해가 발생했을 때에 유용한 정보(the right information)를, 제 시간(the right time)에, 필요한 사람(the right people)에게 제공 하여 올바른 의사결정(the right decision)을 내릴 수 있도록 태풍-홍수 재해대응 의 사결정 시나리오를 개발하고, 개발된 시나리오를 바탕으로 그리드기술과 혼합현실 기술을 기반으로 태풍-홍수와 관련된 관측자료시스템, 예측모델링시스템, 자료표출 시스템을 통합하여, 의사결정자가 관측․예측 자료를 포함한 각종 정보를 실시간으 로 수집․생산․분석․교환할 수 있는 태풍-홍수 재해대응 의사결정지원시스템을 말함

제2절 예측모델링시스템

예측모델링시스템은 앞으로의 기상 상황이나 기후의 변화 등을 예측하기 위해 개발된 수치모델을 수행하여 의사결정에 필요한 데이터를 생성하기 위한 시스템이 다. 특징적으로 본 연구는 그리드 시스템에 기반을 두고 설계되었다. 그리드 시스 템은 분산된 이기종의 계산 자원들을 통합하여 하나의 시스템처럼 사용하는 것을 가능하게 하는 상시 활용 가능한 계산 인프라이며, 의사결정시스템에서 수행하려 하는 모델링 응용 프로그램이 필요로 하는 계산 자원을 충분히 공급할 수 있는 기 술이라고 할 수 있다. 특히 태풍, 홍수 등의 자연재해 상황에서 단기간 동안의 정 확하고 빠른 상황 예측을 위해서는 순간적으로 많은 양의 계산 자원이 요구될 수 있는데, 이러한 상황에서 그리드 인프라는 유용하게 활용될 수 있다. 또 기후 예측 모델링 프로그램의 수행을 위해서도 많은 양의 계산 자원이 필요로 하게 되는데, 그리드의 풍부한 자원제공 능력을 통해 기존의 기후 예측 연구보다 더 정확한 결 과를 기대할 수 있으리라고 여겨진다.

본 연구에서는 이러한 그리드 컴퓨팅의 유용성을 이용하여 더욱 정확하고 빠른 미래 자연재해 예측 데이터를 얻기 위한 그리드 기반의 예측모델링시스템을 설계 하였다. 예측모델링 응용을 그리드 환경에서 실행하기 위해서 필요한 그리드 미들 웨어로서는 KMI-R2를 채택하였고, 예측모델링시스템을 위해 필요한 계산 자원 인

(6)

프라로서는 국내 5개 사이트에 분산된 클러스터들로 구성된 계산 그리드 인프라를 이용하였다. 이 계산 그리드 인프라는 KMI-R2를 이용하여 구축되었다. KMI-R2는 주관기관인 한국과학기술정보연구원에서 개발한 그리드 미들웨어로서 계산 그리드 구축 및 그리드 서비스 환경을 제공하기 위한 통합 패키지이다.

기상 및 기후 예측을 위한 응용 프로그램으로는 MM5와 CCSM을 선정하였다.

MM5는 기상 예측을 위해 현업에서 주로 사용되는 응용 프로그램이며, CCSM 역 시 장기간 기후 예측을 위해 매우 유용한 도구이다. 본 과제에서는 MM5 및 CCSM 응용을 이용한 예측모델링 시스템을 그리드 기반으로 개발하는 것을 목표 로 하였다. 선정된 예측모델링 응용 프로그램을 그리드 환경에서 실행하도록 하기 위해서 KMI-R2의 서비스와 계산 그리드 자원을 사용하는 전용 웹 포털을 설계하 였다. 각 응용 프로그램을 분석하여 요구사항을 도출한 뒤 사용자에게 유용한 웹 화면을 설계하였고, 내부적으로 그리드 미들웨어와 연동되는 웹 포털 시스템을 설 계하였다.

(7)

제2장 그리드 컴퓨팅 기술 개요 및 동향

제1절 그리드 컴퓨팅 기술 개요

그리드 컴퓨팅 기술은 지역적으로 분산된 이기종 (heterogeneous)의 각종 계산 자원과 대용량 저장장치, 다양한 과학기술 연구장비 등을 고속의 네트워크로 연 결․통합하여 사용자 중심의 자원 제공 서비스를 제공하는 고성능 인프라 구축 기 술이다. 특히 그리드 컴퓨팅은 물리적인 자원뿐만 아니라 원격에 있는 전문 인력간 의 원활한 협업 환경을 제공하며 결과적으로 지역적 한계를 초월하여 이 모든 분 산 환경이 하나의 거대한 가상 컴퓨터처럼 사용자에게 서비스 되도록 하는 인프라 이다.

그리드를 통해서 사용자는 쓸 수 있는 계산 자원의 양이 늘어남으로써 이전보다 더 큰 규모의 문제를 더 빠른 시간 안에 해결할 수 있게 되고, 다양한 종류의 자원 에 대한 일원화된 접근을 통해 자원 활용의 효율성이 증가하게 된다. 그리고 분산 협업환경을 통하여 연구자들이 원격에서 공동연구 및 협력을 수행함으로써 협력을 위한 비용을 크게 줄일 수 있게 된다. 자원 관리자의 측면에서도 자원의 통합 활용 을 통해 전체 자원의 유휴시간이 줄어들게 되고 고가의 연구장비의 활용도 증가와 자원의 추가 비용이 절감되는 효과를 주게 된다.

이러한 그리드 컴퓨팅 인프라는 자원과 이 자원을 사용하는 응용 사이의 간격을 이어주는 미들웨어라는 소프트웨어를 통해 가능하게 된다. 그리드 미들웨어는 분산 이기종 환경의 모든 자원들을 사용자의 요구에 따라 적절하게 할당하기 위해 필요 한 모든 기능을 갖추고 있다. 매우 이질적이고, 분산되어 있으며, 그 운영 정책까지 도 각기 다른 자원들을 하나의 시스템처럼 보이게 하기 위해서는 매우 복잡한 구 조를 요구하게 되지만, 그리드 미들웨어는 이 모든 복잡한 구조를 사용자에게는 감 추고, 사용자 입장에서 편리한 인터페이스를 통해 필요한 자원을 사용할 수 있게 도와준다.

그리드 기술은 그 활용 목적에 따라 조금씩 다르게 구분이 되는데 크게 계산 그리드, 데이터 그리드, 연구장비 그리드, 그리고 액세스 그리드로 나눌 수 있다.

계산 그리드는 계산 자원들간의 연동을 통해 매우 높은 고성능 계산 자원을 활용 하여 계산 집약적인 애플리케이션을 수행하도록 하는 것을 목적으로 한다. 데이터 그리드는 방대한 양의 분산된 데이터에 대한 접근 및 관리 기술을 지원하며, 이러 한 기술을 통해 거대한 데이터 처리를 하는 애플리케이션을 수행하도록 한다. 연구 장비 그리드는 천체 망원경, 전자 현미경 등의 연구장비들을 원격에서 조정하여 사

(8)

용하도록 하는 목적을 가진다. 마지막으로 액세스 그리드는 원격의 연구자간 화상 회의와 프리젠테이션 프로그램, 데이터 분석 프로그램 등을 공유하도록 함으로써 원격 협업 연구를 지원한다. 물론 이러한 그리드 기술 구분은 응용에 따라 그 경계 가 모호하기도 하고, 때로는 복합적으로 사용되기도 하지만, 이러한 구분을 통해 그리드 기술이 어떠한 응용 요구에 부합하는지 대략 설명이 가능하다고 보여진다.

그리드는 종종 웹(WWW)과 비교되기도 하는데, 웹은 텍스트와 이미지 등의 정보 를 자유롭게 공유하도록 함으로써 혁신을 일으켰지만, 그리드는 정보의 공유에서 한발 더 나아가 자원의 공유를 가능케 한다는 점에서 웹의 미래형으로 불리기도 한다.

제2절 그리드 인프라 구축 및 활용 현황

국외 그리드 인프라 구축의 대표사례로 미국의 테라그리드, 유럽연합의 EGEE, 일본의 NAREGI 프로젝트가 있다.

1. 미국의 테라그리드(TeraGrid)

TeraGrid 프로젝트는 NSF의 DTF(Distributed Terascale Facility) 제안으로 2001 년부터 시작된 국가 공유 사이버인프라스트럭처를 구축하기 위한 프로젝트로서 그 리드 기술에 기반하여 개방된 과학 연구를 위한 가장 크고, 빠르고 포괄적인 분산 인프라를 구축하고 배치하는 것을 목표로 한다. 현재 TeraGrid 프로젝트는 2004년 부터 2단계가 진행 중에 있으며, 각 단계별 TeraGrid 프로젝트 현황을 정리하면 다음과 같다.

▪ TeraGrid 1단계 (2000 ~ 2004)

- 기상, 물리, 바이오, 화학 등의 기초 과학 연구 분야에서 센서 네트워크 등의 IT 기술을 활용한 데이터 관측 및 실험 활동이 증가로 과거와 비교될 수 없을 정 도의 대규모 데이터들이 생성되고 이러한 대규모 데이터를 효율적으로 분석할 수 있는 연구 개발 환경에 대한 요구 증가

- TeraGrid는 기초 과학 분야에서의 대규모 데이터 분석 및 시뮬레이션을 가능하 게 하는 국가 규모의 분산 컴퓨팅 및 정보 공유 환경 구축 프로젝트로서 진행

- NCSA, SDSC, ANL, Caltech의 4개 주요 연구 기관을 중심으로 IBM, Intel, Qwest, Oracle, SUN등의 산업체와의 파트너쉽 체제로 진행

- 13.5TF 규모의 컴퓨팅 자원과 600TB 규모의 데이터 저장 장치 자원을 연동한

(9)

오픈 사이언스 (Open Science) 연구 개발 환경

- 40 Gbp/s급의 광 메쉬 구조의 TeraGrid 백본 네트워크 구축

- NEES (지진 분야), NEON (해양 분야), EarthScope (지구과학 분야), ALMA (천문학 분야) 등의 MRE (Major Research Equipment) 프로젝트와의 협력 및 연계 활용

▪ TeraGrid 2단계 (2005~2010)

- 국가 대규모 고성능 연구 자원을 통합하여 기초 과학 분야 및 산업 분야에서 공동 활용할 수 있는 공유 사이버인프라스트럭처 (Shared Cyberinfrastructure)로서 활용을 목적

- TeraGrid 1단계가 공유 사이버인프라스트럭처 구축을 위한 하드웨어 구축에 초 점을 맞추었다면, TeraGrid 2단계는 이를 위한 소프트웨어 기반 마련과 사이언스 커뮤니티와의 연계를 통한 TeraGrid 공동 활용 체제 구축에 초점을 둠

- 9개의 RP (Resource Provider)와 GIG (Grid Integration Group)로 구성

- 10개의 Science Gateway 프로젝트와의 연계를 통한 TeraGrid 공통 서비스 프 레임워크 구축

2. 유럽의 EGEE

EGEE (Enabling Grids for E-sciencE)는 유럽연합 (EU)내의 학계 및 산업계의 다 양한 과학 기술 분야 및 비지니스 응용 분야에서 활용될 수 있는 실용화 수준의 그리드 인프라스트럭처를 구축하는 것을 목표로 한다. EGEE-II는 지역적으로 분산 된 컴퓨팅 자원, 데이터 스토리지 및 네트워크를 통합하여 유럽연합 내의 컴퓨팅 인프라스트럭처뿐만 아니라, 전 세계의 다른 그리드 인프라스트럭처와 연동될 수 있도록 확장되고 있으며, 결과적으로 구축되는 EGEE e-Infrastructure는 한 기관에 서 보유하고 있는 최대 컴퓨팅 자원의 규모를 훨씬 넘어서서 협업 계산집약 과학 분야인 e-Science에 활용되기 위한 단일 인터페이스를 제공하게 될 것이다. 대표적 인 응용 분야로는 고에너지 물리학, 생명 과학, 지구 과학, 천문한 계산 화학 분야 이며, 핵융합과 같은 다른 과학 분야에서도 활용될 예정에 있다.

EGEE는 현재 2단계 프로젝트인 EGEE-II가 진행되고 있으며, 2006년 4월부터 2 년 동안 진행될 예정이며, 전체 예산은 37M Euro이다. EGEE-II프로젝트에는 전 세 계 40여개 국가로부터 90개 이상의 파트너가 참여하고 있으며, US 및 아시아 지역 의 국가 그리드 프로젝트와도 협력하고 있다.

EGEE-II는 크게 네트워킹, 서비스, 공동 연구 활동으로 나누어 진행되고 있으며, 각 연구 활동을 정리하면 다음 표와 같다.

(10)

활동 내용

Networking

NA1 Project Management

NA2 Dissemination, Outreach and Communication NA3 User Training and Induction

NA4 Application Identification and Support NA5 Policy and International Cooperation

Service

SA1 European Grid Operations, Support and Management SA2 Networking Support

SA3 Middleware Integration, Testing and Certification Joint

Research

JRA1 Middleware Re-Engineering JRA2 Quality Assurance

<EGEE-II 그룹 활동 현황>

EGEE는 2007년 10월 20일 EGEE-III 제안서를 제출했으며, 이 과제에 참여하기 위해 구성된 이 프로젝트의 주요 목적은 다음과 같다.

▪기존 EGEE 인프라스트럭쳐 확장․최적화

▪프로젝트 기반의 그리드 인프라를 국가 차원의 지속가능한 인프라로 전환 준 비

EGEE-III 프로젝트가 승인이 된다면 EGEE-II가 종료되는 동시에 시작될 계획이 며, 프로젝트 기간은 2년으로 예정되어 있다. 이 프로젝트를 수행하기 위해 구성된 EGEE-III 컨소시엄은 지역적으로 연합된 학계, 비즈니스 등 94개 파트너들로 구성 되어 있다.

3. 일본의 NAREGI

일본 정부의 지원 하에 수행되고 있는 그리드 관련 프로젝트의 하나인 NAREGI (National Research Grid Initiative) 프로젝트는 2003년부터 5년 동안 300억엔을 투 자하여 100Tflops급의 세계 최고 수준의 고속 컴퓨팅 환경과 e-Science 환경을 구 축하고 산ㆍ학ㆍ연ㆍ관 공동으로 나노기술, 생명과학 분야와 IT 분야와의 융합 영 역 연구를 목표로 하고 있다.

문부과학성이 주관이 되어 추진하고 있는 NAREGI 프로젝트에서는 그리드 미들 웨어, 그리드 네트워크, 나노 애플리케이션의 그리드화의 연구개발 거점으로 국립 정보학연구소의 그리드 연구개발센터 (Center for Grid Research and

(11)

Development)와 나노 과학을 중심으로 하는 계산과학 연구의 거점으로 아카자키 국립공동연구기구 분자과학연구소의 계산나노과학센터 (Computational Nanoscience Center)를 중심으로 조직되어 있으며, 산ㆍ학ㆍ연ㆍ관 공동으로 그리 드 소프트웨어 개발과 성능 검증을 위한 나노과학 분야의 계산 시뮬레이션 소프트 웨어 개발 등을 추진하고 있다.

기존 프로젝트에서의 그리드 기반 소프트웨어 연구개발 성과를 유용하게 활용할 수 있도록 하기 위해서 ITBL 프로젝트 등과 제휴하여 프로젝트를 진행하고 있다.

또한 일본의 주요 IT 관련 업체인 NEC, 히타치 등의 산업체가 적극적으로 프로젝 트에 참여하고 있다. 따라서 NAREGI 프로젝트를 통해 구축된 e-Science 환경을 최 첨단 연구 개발에 이용하여 바이오, 나노 등의 첨단기술을 비교적 단기간에 실용화 하기 위한 노력을 기울이고 있다.

제3절 그리드 미들웨어 기술 동향

1. Globus Toolkit 4

Globus Aliance는 2005년 4월 30일에 Globus Toolkit 4(GT4)를 공식적으로 발표 하였다. Globus Aliance는 미국의 Argonne National Laboratory(ANL)와 University of Southern California's Information Sciences Institute 등이 모인 연합 체로서, 그리드를 구성하기 위한 기술, 표준 등을 개발하기 위해 많은 연구 및 개 발을 하였는데 가장 최근의 결과물이 GT4이다. GT4는 국제 그리드 표준화 기구인 Global Grid Forum(GGF, 현재는 OGF)에서 정의한 Open Grid Services Architecture(OGSA)를 따르는 구성요소를 포함하고 있다. 또한 GT4의 각 구성요소 및 개발 도구는 다른 국제 표준화 기구인 OASIS에서 표준화가 진행 중인 웹서비 스 관련 문서인 Web Services Resource Framework(WSRF)와 WS-Notification 등 을 따르고 있다.

GT4는 기업에서 그리드를 구축하기 위한 준비된 미들웨어이다. Globus Aliance 는 Microelectronics Center of North Carolina (MCNC)와 같은 많은 얼리 어뎁터 와의 작업을 통하여 기업 환경에 적용하기 위한 높은 수준의 그리드 미들웨어로서 GT4를 개발하였다. 뿐만 아니라 IBM, Sun, HP, Intel과 같은 기업에서 많은 관심 을 보여주고 있다.

위에서 언급하였듯이 GT4의 구성요소가 WSRF, WS-Notification 등의 최신 웹서

(12)

비스 기술을 따르고 있으며, 이에 따른 가장 큰 장점은 기존의 GT 구현물 보다 웹 서비스 표준에 대한 폭 넓은 지원을 하고 있다는 점이다. 이를 통해서 기업뿐 아니 라 학계 등에 있는 일반적인 사용자들도 웹서비스로 된 서비스를 쉽게 GT4를 통 해 서비스가 가능하다는 점이다. 뿐만 아니라 기존의 GT 구현물보다 더 높은 수준 의 테스팅, 문서화, 성능, 안정성을 보여주고 있다.

GT4는 최신 웹서비스 기술을 따르고 있는 즉, 서비스 지향 구조인 SOA 구조를 지원하는 핵심 함수들의 집합들을 제공하고 있다. 이들 핵심 함수는 작업 실행 서 비스, 컴퓨팅 및 데이터 자원에 정보 제공 서비스, 대용량 데이터 이동 및 관리 서 비스, 그리고 자원 발견 및 모니터링을 지원하는 서비스 등을 포함한다. 게다가 GT4는 이러한 서비스들이 안전하게 사용될 수 있게 WS-Security와 관련된 규약들 을 구현하였다. 이러한 구현을 통해 Single-Sign-On이 이루어지는데, 이 기술을 통 해 사용자는 단 한번의 인증을 통해 그리드 상의 계산 및 데이터 자원을 사용할 수 있게 된다.

2. gLite

gLite는 EGEE 프로젝트에서 개발하고 그리드 미들웨어이다. 이름에서 알 수 있 듯이 gLite는 쉽고 빠르게 deploy할 수 있는 가벼운 서비스들로 구성하는 것을 기 본 정책으로 삼고 있으며, 이를 위해서 각 사이트에 요구되는 컴포넌트는 최소화 하고, 제안된 아키텍쳐 내에서 상호호환성이 보장되는 다양한 구현물들을 허용하도 록 하고 있다. 기본적으로 미들웨어 re-engineering에 있어서는 기존의 미들웨어를 최대한 이용하도록 하고, 새로운 구현은 최소화하는 정책을 가지고 있다. 특히 기 존의 인프라, 즉 LCG-2 또는 Grid3과 같은 프로젝트의 응용을 지원하기 위해서는 이미 사용되고 있는 미들웨어와의 호환성을 매우 중요하게 여긴다. 이러한 정책에 의해서 gLite는 VDT, EDG/LCG, 등을 근간으로 하여 시작되었다. 기본적으로 gLite는 SOA(Service Oriented Architecture)를 표방하고 있으며, WSRF가 웹 서비 스 표준으로 진행되고 있지만 확정되지 않았기 때문에 gLite는 WS-I 호환 기본 웹 서비스 형태로 만들어졌다. EGEE에서는 그동안 LCG-2와 gLite를 모두 사용해오고 있었는데, 지난 2006년 5월에 LCG 2.7.0과 gLite 1.5.0을 통합하여 gLite 3.0을 출시 하기에 이르렀다. 두 미들웨어가 통합되었지만 기존에 인프라에서 운영 중인 미들 웨어와의 호환성을 감안해서 gLite 3.0에는 기존의 LCG와 gLite의 컴포넌트들이 혼재해 있는 실정이다. 예를 들어, gLite CE와 LCG CE가 모두 사용가능하고, 워크 로드 관리자로서 gLite WMS/LB와 LCG-RG가 모두 포함되어 있다.

gLite는 크게 다섯 가지 분야의 서비스들로 구성되어 있는데, 작업 관리를 위한

(13)

서비스, 데이터 관리를 위한 서비스, 자원 정보 및 작업 모니터링 서비스, 보안 관 련 서비스, 사용자 접근을 위한 서비스 들이다. 작업 관리와 관련해서는 워크로드 관리(WMS), 컴퓨팅 엘리먼트(CE), L&B(logging and bookkeeping) 기능이 있는데, 특히 WMS는 사용자 작업을 처리해주는 중심 서비스로서 task queue와 information supermarket 같은 모듈이 있어서 작업관리와 자원 선택을 자동적으로 처리한다. 작업 관리 서비스는 여러 단계를 거쳐야 하는 복합적인 작업을 처리하는 기능도 포함한다. 그리고 gLite 3.0에는 GT2 GRAM을 사용하는 LCG-CE, Condor-C를 사용하는 gLite-CE, 그리고 별도의 WS-I 인터페이스를 가지는 CREAM, 이렇게 세 가지 종류의 CE가 있다. 데이터 관리 서비스에는 파일 및 리 플리카 카탈로그, 파일 전송 서비스, gLite I/O 기능을 포함하고 있다. 파일 및 리 플리카 카탈로그는 파일의 실제 위치 등을 나타내는 PFN(Pysical File Name)을 제 공하여 파일을 찾을 수 있게 하고, 파일 전송 서비스를 통하여 파일을 원하는 위치 로 가져올 수 있게 한다. 정보 서비스에는 R-GMA를 통해 자원 모니터링이 이루어 지고 서비스 검색 기능도 제공한다.

3. OMII

OMII(Open Middleware Infrastructure Institute)는 영국 Southampton 대학의 한 기관으로서, 이 기관의 목적은 보다 안정적이고 상호연동이 가능한 오픈 소스 그리 드 미들웨어를 제공하여, 영국 e-Science 프로젝트의 성공에 기여하는 것이다. 좀 더 일반적인 목적으로는 보다 더 안정되고 호환성 있고, 사용하기 편리한 미들웨어 를 만들어 제공하는 것이고, 사용자 그룹과 밀접하게 만들어져서 쓰임새를 넓힐 뿐 만 아니라 나아가 비즈니스 영역에서도 사용되도록 하는 것이다.

OMII 클라이언트는 원격 시스템에서 사용자의 배치 프로세싱 애플리케이션을 실 행하기 위한 환경을 제공한다. 사용자가 사용할 수 있는 클라이언트 인터페이스로 는 명령어형 클라이언트와 자바 인터페이스가 있다. 클라이언트를 통해서 사용자는 원격 데이터의 스테이징 및 작업 실행, 결과 데이터에 대한 접근 등을 수행할 수 있다. OMII 서버는 계층형 구조를 가지고 있는데 크게 나누면 웹 서비스 컨테이너 와 그 위에 올라가는 OMII 서비스 컴포넌트들이다. OMII 서비스 컴포넌트는 크게 작업 실행을 위한 서비스, 데이터 통합 및 관리를 위한 서비스, 어카운팅 서비스 등으로 나눌 수 있다.

4. UNICORE

UNICORE(Uniform Interface to Computing Resources)는 분산된 컴퓨팅 및 데

(14)

이터 자원에 대해 가상화되고, 안전하고, 자동화되어 사용하기 편리한 그리드 기능 을 제공하는 그리드 미들웨어 시스템이다. UNICORE는 그리드 개념이 정립되기 이전인 1997년부터 이기종 슈퍼컴퓨터에 대한 편리한 인터페이스로서 개발되기 시 작하였고, 2002년에 “UNICORE Plus" 과제가 종료된 후 상업화 되었다. 이후 UNICORE는 상업화를 목적으로 하는 UNICORE와 오픈 소스 정책을 유지하는 UNICORE Open Source로 분리되어 발전되어 오고 있다. 최근 버전인 UNICORE6 은 OGSA에 기반을 두고 있고, OGF, W3C, OASIS, IETF에서 제정되는 표준 스펙 (예를 들어 WS-RF)들을 지원한다는 특징이 있다. UNICORE는 현재 DEISA나 D-Grid 같은 production 그리드에서 사용되고 있다.

UNICORE의 구조는 다음과 같다. 그리드 포털이나 UNICORE 클라이언트 등 다 양한 인터페이스를 통해 사용자들을 UNICORE Gateway로 연결이 된다.

UNICORE 클라이언트는 복잡한 워크플로우 관리, 확장된 모니터링 등을 지원하는 그래픽 사용자 인터페이스이다. UNICORE Gateway에서 사용자에 대한 인증 과정 을 거치고, 이후 Atomic Service 계층의 서비스들을 사용할 수 있게 되는데, 예를 들어 작업 관리자 역할을 수행하는 Job Management Service, Target System Service, 그리고 데이터 관리 및 전송을 담당하는 Storage Management Service, File Management Service 등이 Atomic Service에 해당한다. 또한 GridBean 서비스 를 이용하여 UNICORE 클라이언트에서 다양한 기능을 구현할 수 있게 한다.

(15)

제3장 예측모델링시스템 기반 기술

제1절 그리드 미들웨어 KMI-R2

예측모델링시스템은 컴퓨팅 그리드 인프라를 기반으로 하여 수행되는 것을 특징 으로 한다. 그리드 기반의 예측모델링시스템은 긴급한 상황에 더 빠른 시간 내에 미래 상황을 계산해 낼 수 있도록 많은 양의 컴퓨팅 자원을 이용할 수 있게 되고, 컴퓨팅 자원의 규모에 따라 그 수행의 정확도나 속도에 큰 영향을 미치는 기후 모 델 같은 응용을 원활하게 수행하도록 한다.

본 과제에서 그리드 기반의 예측모델링시스템을 구현하기 위해서 KMI-R2라는 그리드 미들웨어를 사용하였다. KMI-R2는 한국과학기술정보연구원에서 그동안 개 발해 온 계산 그리드 미들웨어로서, 국가 그리드 인프라인 TIGRIS의 구축과 서비 스를 목적으로 개발되었다. 보통 그리드 서비스는 인터페이스 계층과 미들웨어 계 층, 그리고 자원 계층으로 구성되는데, KMI-R2는 그리드 계층 구조의 핵심 부분인 미들웨어 계층을 담당하고 있다.

KMI(K*Grid Middleware Initiative)는 2002년부터 진행된 국가 그리드 프로젝트 에서 개발된 그리드 미들웨어 통합 패키지의 이름이다. KMI는 컴퓨팅 자원 공급자 로 하여금 그들의 자원으로 쉽게 그리드를 구성할 수 있도록 하고, 사용자에게는 그리드 컴퓨팅 기술이 제공하는 여러 가지 유용한 기능을 편리하게 이용할 수 있 게 하는 것을 목적으로 하고 있다. 그리드 서비스를 제공하는데 있어서 가장 중요 한 점은 안정성이라고 할 수 있는데, KMI는 다양한 종류의 자원을 통합하는 그리 드 인프라의 안정성을 최우선순위로 하고 있다. 안정성을 바탕으로 하여 KMI는 그 리드 서비스를 구현하는데 필요한 가장 기본적인 기능들을 충실히 구현하는데 역 점을 두고 있다.

2005년에 개발된 첫 번째 버전인 KMI-R1은 GGF의 첫 서비스 표준 스펙인 OGSI 인터페이스를 구현하였고, 자원관리, 정보서비스, 그리드 MPI 라이브러리 등 을 기본 미들웨어(MoreDream) 기능으로 하고, 이에 그리드 CA(KGridCA), 어카운 팅 서비스(AIService), 그리고 웹 포털 개발툴(KMI-GridSphere) 등을 통합하여 출 시되었다. KMI-R1은 테스트베드 위에서 잘 동작하였으나, MoreDream의 기반 프 레임워크인 Globus Toolkit 3 컨테이너의 기능 및 성능 저하로 인해 실용 수준의 서비스에서 사용되기에는 부족함이 있었다. 따라서 GT3보다 성능 및 안정성 등이 한층 강화된 GT4의 출시와 더불어 GT4를 기반으로 하는 KMI-R2를 개발하게 되었 다. KMI-R2는 이전 버전보다 더 간결하게 설계되어 그리드 서비스에 필수적인 기

(16)

능만을 포함하였고, 기본 사용자 인터페이스로서 웹 포털이 사용자에게 편리함을 주도록 고안하였다. 기본 기능으로는 작업 관리, 분산 파일 시스템 관리, 자원 모니 터링 및 정보서비스 어카운팅 서비스 등이 있고, 보안 인프라로서는 GT의 GSI에 기반하고 있다. 특히 웹 포털을 구현함에 있어서 최근 웹2.0 인터페이스 기술로서 주목을 받는 Ajax, Flex 등의 기술을 충분히 활용하여 사용자가 보다 편리한 인터 페이스를 통해 그리드를 사용할 수 있도록 하였다.

<KMI-R2 주요 기능>

1. KMI-R2의 기본 서비스

1.1 작업 관리 서비스

작업 관리 서비스는 사용자가 제출하는 모든 작업을 처리하는 서비스로서, 작업 의 제출에서부터, 작업 모니터링, 그리고 계산 자원을 할당받아 실행하기까지 필요 한 일련의 과정들을 관리한다. KMI-R2에서는 계산 작업의 종류를 세 가지로 구분 하고 있는데 단일 (serial) 작업, HTC(High Throughput Computing) 작업, MPI 작 업이다. 작업 관리 서비스에서 원격 자원의 할당을 위해서는 GT4의 WS-GRAM을 이용하는데 각 계산 자원에서 수행되는 WS-GRAM을 통해 로컬 배치 스케쥴러에 작업이 할당된다. 작업 관리 서비스는 중앙에서 각 자원에 작업을 보내고, 수행중 인 작업들에 대한 전체적인 모니터링을 수행하여 사용자로 하여금 작업의 상태를 알기 쉽게 해준다. 작업의 상태는 DB로 저장이 되어 작업의 실행중이나, 추후 작

(17)

업이 완료된 후에라도 사용자가 실행했던 작업의 기록을 확인할 수 있게 해 준다.

원격의 작업을 위해 필요한 실행파일, 데이터 파일등의 이동이나, 작업의 실행을 위해 필요한 보안 관련 처리 역시 모두 작업 관리 서비스가 자동으로 처리하게 된 다.

작업 관리 서비스에 제출되는 작업은 OGF의 작업 표현 표준언어인 JSDL(Job Specification Description Language)를 통해 작성되어야 한다. JSDL은 작업의 실행 을 위해 필요한 모든 요소들을 갖추고 있다.

1.2 그리드 MPI 서비스

그리드 MPI 서비스는 MPI 작업만을 따로 처리하기 위한 작업 관리 서비스이 다. KMI-R2의 작업 관리 서비스에 제출된 작업 중 그 타입이 MPI로 되어 있는 작 업은 그리드 MPI 서비스에 보내어져서 실행이 된다. 이 서비스는 여러 종류의 계 산자원들과 또 다양한 MPI 라이브러리를 지원하고 있다. 그리드 MPI 서비스는 사 용자가 선택한 MPI 라이브러리를 이용하여 작업이 실행되도록 모든 과정을 자동 으로 처리해주기 때문에 사용자는 MPI 작업의 실행 방법에 대한 지식이 없이도 작업을 실행할 수 있다. 그리고 MPICH-G2와 같은 라이브러리를 이용해 원격의 계 산자원을 동시에 사용하는 MPI 작업도 수행이 가능하다. 마지막으로, 자동 컴파일 기능을 지원하여 소스 파일을 이용해서 작업을 제출하면 타겟 자원에서 실행파일 을 생성해 내고 실행하는 것까지 가능하게 해준다.

1.3 파일 관리 서비스

원격의 계산자원에서 작업을 실행하기 위해서는 작업 실행에 필요한 데이터나 실행파일 등이 작업을 실행하는 계산 자원에 위치해 있어야 한다. KMI-R2는 이러 한 작업들을 내부적으로 모두 자동으로 처리하고 있는데, 이 과정에서 파일의 전송 을 담당하는 서비스가 파일 관리 서비스이다. 이 서비스는 원격의 자원간 파일의 입출력 전송을 수행하며, 파일 브라우징 기능을 제공하여 분산된 다양한 자원들에 있는 사용자의 데이터를 마치 하나의 컴퓨터에 있는 것처럼 단일 뷰를 통해 관리 하도록 해준다.

1.4 자원 모니터링 및 정보 서비스

분산 환경에서 자원 정보 서비스는 매우 기본적인 기능이라 할 수 있는데, 이는 자원의 모니터링 뿐만 아니라, 각 자원이 제공하는 서비스를 활용하기 위한 기본 정보들을 서비스하기 때문이다. KMI-R2 자원 정보 서비스는 GT4의 MDS를 그대

(18)

로 활용하고 있으며, 필요한 정보를 생성하기 위한 Information Provider를 추가하 여 제공한다. 웹 포털을 통해서 제공되는 자원 모니터링 기능 역시 MDS에서 추출 되는 정보들을 DB에 저장하여 활용하게 된다. 자원 정보 서비스에서 제공하는 정 보의 종류로는 로컬 배치 스케쥴러의 큐 관련 정보와 하드웨어 위주의 시스템 정 보, 그리고 소프트웨어 정보가 있다.

1.5 어카운팅 서비스

그리드 환경은 매우 이질적인 자원들로 구성되어 있기 때문에 각 자원마다 OS, 배치 스케쥴러 등이 다르게 된다. 이러한 이질적인 배치 스케쥴러들로부터 수집된 사용자의 어카운팅 정보들이 통합적으로 관리되는 어카운팅 시스템이 필요로 하게 된다. KMI-R2 어카운팅 서비스는 IBM의 LoadLeveler, SunMicrosystems의 SunGridEngine, 그리고 Torque 등 다양한 배치 스케쥴러에서 사용자의 자원 사용 정보를 수집하고, 이를 이용하여 사용자가 언제 얼마나 계산자원을 사용했는지를 알려 준다. 내부적으로 어카운팅 정보는 OGF 표준인 UR-WG의 어카운팅 스키마 를 따르고 있다.

2. 웹 기반 그리드 포털

KMI-R2는 사용자 인터페이스로서 웹 포털을 사용하는 것을 권장한다. KMI-R2에 는 그리드 클라이언트로서 웹 포털이 어떻게 구현될 수 있는지를 보여주기 위한 일반적 목적을 위한 웹 포털을 포함하고 있다. 이 웹 포털은 최근 웹2.0 사이트에 서 많이 사용되는 인터넷 애플리케이션 구축 기술인 Ajax, Flex 등을 충분히 활용 하였으며, 이러한 기술을 사용함으로써 사용자가 웹 포털을 통해 작업을 실행하고 파일을 관리하고, 자원을 모니터링 하는 등의 일련의 기능들을 이전보다 좀더 편하 고 직관적으로 할 수 있게 한다. 제공되는 웹 포털은 KMI-R2의 미들웨어 서비스들 을 활용하여 작업 관리, 작업 모니터링, 분산 파일 관리, 자원 모니터링, 어카운팅 관리, 보안을 위한 인증서 관리 등을 수행하도록 하고 있다. 앞서 이야기한 것처럼 이 웹 포털은 범용의 응용 프로그램들을 돌리는 것을 목적으로 하고 있기 때문에, 특정 응용 프로그램을 지원하기 위한 별도의 포털을 만드는 것이 얼마든지 가능하 다. 본 과제에서 개발하는 예측모델링시스템의 포털 역시 KMI-R2의 포털을 확장하 여 구축하는 것을 계획하였다.

(19)

제2절 계산 그리드 테스트베드

예측모델링시스템은 그리드 기반 응용실행 환경이 되는데, 이를 위해서는 계산 그리드 시스템을 필요로 한다. 예측모델링시스템 개발을 위해 필요한 계산 그리드 는 전국 5개 사이트에 분산된 클러스터들이 연동된 인프라를 활용하였다. 이 계산 그리드 인프라는 KMI-R2를 이용하여 구축되었다.

<예측모델링시스템을 위한 계산 그리드 인프라>

각 클러스터는 KREONET 연구망에 연동되어 각 클러스터간 10~20Gbps의 네트 워크로 연동되어 있어서 네트워크로 인한 클러스터간 통신 병목현상은 최소로 하 려 하였다. 분산된 자원에 작업을 분배․관리하고, 자원 정보 및 어카운팅 정보 등 을 관리하는 미들웨어 서버를 두고 있고, 각 자원과 미들웨어 서버의 그리드 서비 스를 이용하여 웹 포털을 구현하게 된다. 다음 표는 계산 그리드 인프라를 구성하 고 있는 각 클러스터의 사양을 보여주고 있다.

(20)

Cluster 위치 대전 대전 대전 서울 광주 부산 포항

OS CentOS

4.6 SL 4.1 CentOS 4.6

CentOS 4.6

CentOS 4.6

CentOS 4.6

CentOS 4.6

CPU

CPU Intel

Xeon

Intel Xeon

Intel Xeon

Intel

Xeon Intel P4 Intel P4 Intel P4 Clock 2.5GHz 3.2GHz 2.5GHz 2.5GHz 2.8GHz 3.0GHz 2.66GHz CPU(core)/

Node 8 2 8 8 1 1 1

Computing

Node 14 37 8 14 15 22 24

Total 112 74 64 112 16 24 25

RAM RAM/Node 16G 1G 16G 16G 2G 2G 2G

Total 16G 1G 16G 16G 2G 2G 2G

HDD

HDD/Node 250G 80G 250G 250G 80G 80G 120G

Total 250G+5T B(nfs)

80G+2T

B(nfs) 250G 250G+5

TB(nfs) 80G 80G 120G Network Interface Gigabit Gigabit Gigabit Gigabit Gigabit Gigabit Gigabit

Batch Scheduler Torque Torque Torque Torque Torque Torque Torque

<계산 그리드 인프라 구성 클러스터 사양>

(21)

제4장 예측모델링시스템 설계

제1절 목표 예측모델링 응용 개요 및 요구사항 분석

1. 기상예측모델(MM5)

기상정보 웹포털을 개발하기 위해, 현업예보에 이용하고 있는 MM5(The Fifth Generation Mesoscale Model, 이하 MM5)를 예측모델링시스템의 기상수치모델로 선택하였다. MM5는 대기/환경 분야에서 널리 사용되고 있는 대표적인 사용자 응 용프로그램의 하나이다. 현재 기상청과 공군에서는 현업 예보에 MM5를 사용하고 있고, 기상연구소와 서울대학교 대기과학과 등에서는 중규모 역학과정을 이해하고 예보의 정확도 향상을 위한 연구에 MM5를 사용하고 있다.

1.1 MM5 모델

MM5는 3차원 원시 방정식 모델이며, 종관 규모에서 중간- γ 규모의 대기 현상 까지 모의할 수 있다. 모델의 수평 격자계는 Lambert- Conformal 도법에 의한 등 거리 간격의 격자계를 사용하며, 격자 간격은 20km에서 200km까지 선택이 가능하 다. 연직 좌표계는 19층의 σ-좌표계를 사용한다. 수평 좌표계와 연직 좌표계 모두 차 격자계(staggered grid system)를 사용 한다. 연변 경계 조건은 완화법으로써 모 델에서 예보한 대규모 모델의 변수 또는 관측값을 완화하여 사용한다.

PSU(미국 펜실베니아 주립대학)/NCAR(미국립 대기연구센터)에서 개발한 모델을 한반도 지형에 적용한 중규모 모델로써, 크게 성긴격자모델과 상세격자모델, 두 가 지로 구분한다. 성긴격자모델의 수평격자는 동경 125도, 북위 37도에 중심을 둔 Lambert-Conformal 투영법에 따라 지도상에서 60km의 격자거리를 가지며 동서방 향으로 81개, 남북방향으로 64개, 총 64×81개 지점을 가진 예보영역에 대하여 설정 한다. 또한 상세격자모델은 지도상에서 20km의 격자거리와 동서방향으로 61개, 남 북방향으로 61개, 총 61×61개 지점을 가진 예보 영역에 대하여 설정한다.

1.2 MM5 수행 방법

MM5를 이용한 수치시뮬레이션은 다음과 같은 지형생성, 전처리, 메인, 후처리 과정을 거쳐 수행한다.

1.2.1 지형생성 과정 (TERRAIN)

지형생성과정은 모델 영역 설정, 지형고도 및 지면이용정보를 선택된 영역으로

(22)

분석하는 과정이다. 지형 자료는 1도, 30분, 10분, 5분, 2분, 그리고 30초의 고해상 자료를 받을 수 있으며, 식생정보와 육․해양 정보 등도 고해상도로 구할 수 있다.

<지형생성 과정>

결과자료는 TERRAIN_DOMAIN의 형태로 얻고, NCARG가 설치되었을 경우에 TER_PLT(gmeta) 그림 파일로 생성된다.

1.2.2 전처리 과정

전처리 과정은 생성된 지형자료에 대해서 사용자의 요구사항에 맞게 MM5 메인 과정의 입력 자료로 변환하는 과정이다. PREGRID, REGRIDDER, LITTLE_R, INTERPF의 과정으로 구성되어 있다. REGRID의 PREGRIS 과정은 모델 초기자료 (전구모델자료와 해수면온도자료)를 시간대별로 분류한다. 전구모델자료(기상청 GDAPS , NCEP GFS 등 모든자료가능)와 수면온도자료(NCEP daily mean SST( 1˚

x 1˚) )을 이용한다. REGRID의 REGRIDDER 과정은 각 시간대 자료(등압면)를 지 형자료(TERRAIN)의 격자에 맞는 하나의 파일을(초기 추정장 생성) 생성한다.

LITTLE_R과정은 관측자료를 객관 분석(objective analysis)하여 초기장의 정보를 강 화시킨다. 다만, 반드시 필요한 과정은 아니다. INTERPF과정은 등압면 좌표계로 표현된 자료를 중규모 모델에 필요한 시그마 자표계로 변환한다.

(23)

1.2.3 메인 과정

지정된 시간과 영역에 대한 실제 예보를 수행하는 본체 과정이다. 다른 과정에 비해 슈퍼컴퓨터 등의 고성능 컴퓨팅 자원이 필요하다. CPU가 많을수록 빠른 결 과를 얻을 수 있으므로, 실제 예보 예측에서 많은 컴퓨팅 자원은 중요하다.

1.2.4 후처리 과정 (가시화)

후처리 과정은 예보 결과를 어떻게 볼 것인가 하는 가시화 과정이다. NCAR에서 제공하고 있는 다음과 같은 GRAPH, RIP, Vis5d 등의 도구를 이용해 가시화가 가 능하다. GRAP와 RIP은 모델 지형자료에 초기자료, 모델 결과까지 모든 과정의 자료를 다 표출할 수 있기 때문에 모델을 구축하는 단계에서 자료의 잘잘못에 대 한 확인 가능하다. Vis5d는 3차원입체영상으로 가시화가 가능하다.

1.3 MM5 모델 입력 자료 1.3.1 GDAPS 자료

GDAPS(Global Data Assimilation Prediction System) 모델자료는 1.875。간격의 해상도를 가지고 있으며 00UTC 및 12UTC의 분석장을 초기 자료로 모델 예보장을 경계장으로 사용하고 있다. GDAPS 자료는 GRIB Format으로 되어 있다

1.3.2 GTS 자료

GTS(Global Telecommunication System) 자료는 모델의 관측 자료로 사용하고 있으며, 매 시간별로 구성되어 있다. 하지만, GTS 자료를 저장할 시에 는 AM(전일 19LST~당일 06LST)과 PM(당일 07LST~당일 18LST)으로 나누어서 tar 파일로 묶 어서 저장한다. 각각은 오전 모델과 오후 모델에서 사용된 GTS 자료를 묶어서 저 장하는 것으로 향후 모델의 재수행을 대비하여 백업하고 있다.

1.3.3 SST 자료

SST(Sea Suraface Temperature)는 모델을 수행하는 데 필수적인 자료이며, 대기 보다 메모리가 큰 모델의 에너지 소스로서 중요한 역할을 한다. SST는 미국립환경 대기국(NOAA)에서 만든 1。x1。자료로서 일주일 단위로 갱신된다.

(24)

2. 기후 예측모델(CCSM)

2.1 CCSM 개요

CCSM (Community Climate System Model)은 지구 기후 시스템을 모의실험하 기 위한 접합 기후 모형(coupled climate model)이다. CCSM은 서로 다른 4개의 분리된 모델로 구성되는데, 4개의 모델들은 각각 대기(atmosphere), 해양(ocean), 지표(land), 해빙(sea-ice)를 각각 모델링하며, 최종적으로 이 4개의 모델들을 접합하 기 위한 커플러(coupler) 모듈이 존재한다.

<CCSM 모델들간의 관계>

CCSM 프로젝트는 미국 기상 학자들간의 협력에 의해서 추진이 되고 있으며, NSF (National Science Foundation, 미국 국립과학재단)의 지원을 받아 NCAR (National Center for Atmospheric Research, 미국 국립대기과학연구소 , http://www.ncar.ucar.edu/ )에서 주관하고 있으며 미국 에너지성(US Department of Energy)과 미국 항공우주국(National Aeronautic and Space Administration)과 도 협력하고 하여 진행되고 있다.

CCSM의 기술적인 개발은 CCSM 워킹 그룹들이 이끌고 있는데, 워킹그룹 미팅 은 1년에 2차례씩 개최되고 있다. CCSM 워크샵은 년 1차례 개최되는데, 워킹그룹 들의 연구결과 전시와 워킹그룹간의 협력을 도모하고 있다. CCSM 웹사이트 주소 는 www.ccsm.ucar.edu 이며 소스코드와 데이터 아카이브, 실험결과 등을 다운로 드 받을 수 있다.

(25)

2.2 CCSM의 역사

1983년에 NCAR에서 개발된 CCM(Community Climate Model)은 전지구 대기 모형이었는데, 기상 연구 분야에서 오래동안 사용되면서 발전되어 왔다. 처음에 발 견된 모델의 한계는 해양과 해빙에 대한 것이었고, 1994년에 NCAR의 과학자들이 대기, 지표, 해양, 해빙을 CSM에 포함시키기로 결정하고 NSF에 계획을 제출하였 다. 1996년 5월에 열린 첫 번째 CSM 워크샵을 계기로 미국 과학 위원회(Scientific Steering Committee)에서 연구를 지원하기 시작하여, 워킹그룹에서 주목할만한 연 구결과를 내기 시작하였다. DOE와 NASA에서 투자를 하기 시작하면서 CCSM으로 모델의 이름을 변경하게 되었다.

2.3 CCSM의 구성 요소

CCSM은 4개의 모델로 구성되어 있는데, 각각의 모델은 active, data, dead 컴포 넌트로 나뉜다. 각각의 컴포넌트는 "plug-and-play" 형식으로 조합될 수 있는 다양 한 조합을 구성할 수 있게 된다. Active 컴포넌트는 CPU와 대용량의 출력 데이터 를 생성한다. Data(data-cycling) 컴포넌트는 반대로 작고 단순화된 모델로써 기존 에 존재하는 데이터 세트를 읽어 커플러에게 전달하는 역할을 한다. Data 모델은 단일 CPU에서만 실행될 수 있다. Dead 모델은 단순한 코드로써 시스템 테스팅을 목적으로 사용된다.

모델 모델명 컴포넌트명 컴포넌트버젼 종료

대기 atm cam cam3 active

대기 atm datm datm6 data

대기 atm latm latm6 data

대기 atm xatm dead dead

지표 lnd clm clm3 active

지표 lnd dlnd dlnd6 data

지표 lnd xlnd dead dead

해양 ocn pop ccsm_pop_1_4 active

해양 ocn docn docn6 data

해양 ocn xocn dead dead

해빙 ice csim csim5 active

해빙 ice dice dice6 data

해빙 ice xice dead dead

커플러 cpl cpl cpl6 active

<CCSM3 모델의 구성 컴포넌트 종류>

(26)

2.4 CCSM의 데이터 파일 형식과 NetCDF

CCSM의 구성 컴포넌트들은 history, restart, output log file 등의 출력을 생성한 다. history file 은 netCDF 형식으로, restart file은 이진 파일 형식으로, 표준 출력 은 log file로 출력된다.

NetCDF (Network Common Data Form) 는 과학적 데이터 교환을 위한 머신 독 립적(machine-independent), 자기 기술적(self-describing), 이진 데이터 포맷이다.

NetCDF 프로젝트는 UCAR(University Corporation for Atmospheric Research, 미 국 대기 연구를 위한 대학 협력, www.ucar.edu/ucar )의 Unidata 프로그램에서 주관하고 있으며, NetCDF 소프트웨어 개발과 표준 개발 및 업데이트를 담당하고 있다. 이 포맷은 공개 표준이다. 현재 버전3이 제공되고 있으며, 버전4를 개발 중에 있다. (4.0 버전은 2008년 6월 12일에 릴리즈됨) NetCDF 버전4에서는 HDF6파일에 대한 NetCDF 인터페이스를 제공하여 HDF5 데이터 포맷과 통합을 계획하고 있다.

NetCDF의 목적은 배열지향(array-oriented) 데이터를 네트워크 투명성 (network-transparent)을 가지고, 자기 기술적인 단일화된 형식으로 생성, 접근, 공 유하기 위한 인터페이스이다. 자기 기술적이라는 의미는 데이터를 정의하는 메터데 이터 정보를 데이터와 동일한 파일에 포함하고 있다는 뜻이며, 네트워크 투명성을 가진다는 의미는 컴퓨터에서 정수, 문자, 실수 등을 저장하는 서로 방법들이 서로 상이한데, 이를 극복할 수 있다는 의미로써, 데이터의 호환성과 관련된다. NetCDF 를 사용함으로써 소프트웨어에서 데이터 접근과 관리, 분석과 표출이 통일성 있게 된다. 기본적으로 C와 FORTRAN 인터페이스를 제공을 하고 있고, C++과 perl 언 어를 위한 인터페이스도 제공을 하고 있다. NetCDF 소스코드는 자유롭게 이용할 수 있으며, 데이터와 NetCDF를 활용한 소프트웨어의 공유를 권장하고 있다.

2.5 선행연구 분석 - Purdue 대학의 CCSM GridSphere Portal

미국 Purdue 대학의 Reosen Center for Advanced Computing 과 Earth and Atmospheric Sciences 에서는 CCSM을 위한 GridSphere 포털을 개발하여 TeraGrid 2007 워크숍에서 발표하였다.

(27)

6/6/2007 TeraGrid '07 Madison, WI 1

A Community Climate System

A Community Climate System

Modeling Portal for the

Modeling Portal for the

TeraGrid

TeraGrid

Ayon Basumallik, Lan Zhao, Carol X. Song Rosen Center for Advanced Computing, Purdue University.

Ryan L. Sriver, Matthew Huber Earth and Atmospheric Sciences Purdue University.

<TeraGrid CCSM 포털 (TeraGrid Workshop 2007)>

테라그리드에서 CCSM 모델을 수행해 본 결과에 의하면 NCAR에 설치되어 있는 IBM bluesky 슈퍼컴퓨터의 경우, T42_gx1v3 해상도의 데이터세트 계산시, history file 볼륨은 6.5GB/model year 이며, restart file 볼륨은 0.9GB/model year이고, 104개의 CPU를 사용했을 시 하루에 7.5 model year를 시뮬레이션 할 수 있는 규 모이다.

단일 슈퍼컴퓨터에서와는 TeraGrid 환경에서 CCSM을 수행하기 위해서는 다음 과 같은 도전 과제를 해결할 필요성이 있다.

- 새로운 플랫폼으로 포팅(porting)과 검증(validation) 작업 - TeraGrid tools과 배치 작업 시스템 프로토콜에 대한 이해 - 계산 결과의 공유과 협력

이 연구에서는 TeraGrid에서 CCSM 시뮬레이션을 실행하기 위한 웹기반의 직관 적인 인터페이스를 만드는 것을 목표로 삼았다.

- 포털의 메뉴구성은 전형적인 보통의 CCSM 시뮬레이션에의 단계별 처리와 조 화가 되도록 하였다.

- 시뮬레이션 설정을 직접 수정함으로써 컨트롤할 수 있도록 하였다.

- 데이터를 전송하기 위한 인터페이스를 포함하였다.

(28)

<포털 홈페이지 (http://www.purdue.teragrid.org/ccsmportal)>

<CCSM 시뮬레이션을 수행하는 절차>

포털을 실행하는 과정은 크게 다음과 같은 3단계로 나누어진다.

- Case Creation - Case Configuration - Build and Run

(29)

<케이스 생성 화면>

<케이스 설정 화면>

<케이스 실행 화면>

(30)

<결과 파일 전송 화면>

Purdue CCSM 포털은 Globus Toolkit4에서 제공하는 GRAM을 이용하여 작업을 실행하며 데이터 전송은 GridFTP를 이용하고 있다.

향후 계획으로는 CCSM 포털을 기상 데이터 포털과 연동되도록 하는 것과 후처 리 작업 워크플로우 기능을 제공하는 것이다. 사용자 인증을 위한 보안 인증을 사 용하기 쉽게 단순화 하는 작업도 계획되어 있다.

(31)

제2절 예측모델링시스템 설계

1. 예측모델링시스템 기본 구조

예측모델링시스템은 사용자가 재해 상황의 의사결정을 위해 필요한 예측 데이터 생성을 위해 이용하게 되는 시스템으로서 모델링 응용 프로그램 수행을 위한 데이 터는 관측자료시스템으로부터 가져오게 된다. 사용자는 응용 그리드 포털에 접속하 여 그리드 환경을 이용하여 응용 프로그램을 돌리게 되는데, 그리드 포털은 각 응 용에 최적화된 작업 실행 환경 및 모니터링, 결과 확인 페이지를 제공한다. 사용자 는 응용 수행을 위해 필요한 전처리 작업, 메인 계산 과정, 후처리 과정 및 가시화 작업을 수행하고 그 결과를 보여주게 된다. 작업 수행에 필요한 입력 데이터가 저 장된 관측자료시스템 내의 데이터 주소, 작업 수행을 위한 입력 파라미터 등 모든 요구 사항은 웹 페이지를 통해 입력할 수 있다. 뿐만 아니라 작업이 실행될 자원의 선택도 웹 포털을 통해 편리하게 할 수 있으며, 작업이 수행되는 동안 현재 상태를 모니터링 하는 기능도 제공된다. 작업 수행 결과 데이터는 다시 관측자료시스템으 로 전송되고, 추후 관측자료시스템으로부터 언제든지 확인이 가능하도록 제공된다.

<의사결정시스템 내에서 예측모델링시스템의 역할>

예측모델링시스템은 그리드 미들웨어인 KMI-R2를 이용하여 그리드 환경을 이용 하도록 설계하였다. 목표로 하는 응용 그리드 포털은 각 응용 프로그램 수행을 위

(32)

한 요구 조건을 만족하도록 설계되었으며, 웹 포털에서 사용자가 작성한 작업 실행 정보는 JSDL로 변환되어 KMI-R2의 작업 제출 서비스에 보내어진다. 작업 제출 서 비스는 JSDL 입력을 해석하여 그리드 MPI 서비스에 작업을 위탁하고, 그리드 MPI 서비스는 적절한 처리를 통해 계산 인프라 내의 계산 자원으로 작업을 제출하게 된다. 작업이 수행되는 동안 모든 상태 정보는 작업 제출 서비스를 통해 웹 포털에 나타내어지고 사용자는 작업의 상태 변화를 실시간으로 모니터링 할 수 있다. 웹 포털의 자원 모니터링 페이지는 KMI-R2의 자원 정보 서비스로부터 정보를 수집하 여 현재 상태와 자원의 상태 이력을 사용자에게 제공한다. 사용자는 웹 포털에 있 는 파일 관리 브라우저를 통해 분산된 파일 시스템 상의 데이터들을 통합 관리할 수 있는데, 이 파일 관리 브라우저는 각 자원에 설치된 파일 관리 서비스를 통해 사용자 요청을 처리한다. 웹 포털에서는 그리드 인증서 관리 기능을 제공하는데, 그리드 인증서는 Proxy로 생성되어 MyProxy라는 Proxy관리 서비스를 이용하여 그리드 서비스 이용을 위한 인증 절차를 수행한다. 이와 같이 응용 그리드 포털은 KMI-R2에서 제공하는 각 기능들을 통하여 계산 자원을 사용하고 작업을 실행하게 된다.

<그리드 기반 예측모델링시스템 구조>

(33)

2. 기상 예측모델 포털 설계

2.1 주요 기능

2.1.1 MM5의 각 과정별 작업 수행

MM5의 각 과정인 지형생성작업, 전처리작업, MM5메인작업 수행, 후처리작업을 수행한다. 특히 MM5메인 작업은 그리드 테스트베드를 이용한 작업 수행, 제출된 작업 모니터링, 작업 제어(제출한 작업의 취소, 다시 작업 제출) 등을 포함한다. 후 처리 작업은 RIP 도구를 이용한 가시화작업 수행이다.

2.1.2 MM5 메인작업을 수행하기 위한 유휴 계산 자원 및 관련 정보 확인 MM5 메인 작업을 수행하기 위해서는 많은 계산 자원이 필요하고, 이를 위해 먼 저 유휴 자원을 확인하는 기능이 필요하다. 또한 각 계산자원별 하드웨어 사양 (CPU, 메모리, 스토리지 용량) 및 소프트웨어 목록을 확인할 수 있어야 한다.

2.1.3 제출한 MM5의 작업 목록 보기, 작업 모니터링, 작업 제어, 작업 결과 보기

MM5 메인 작업을 수행하고 나서 사용자는 제출한 MM5 작업의 목록 리스트를 확인하고, 현재 작업 상태를 확인할 수 있어야 한다. 또한, 잘못된 중간 결과가 나 오면 취소가 가능해야 한다. 각 단계별 작업의 결과를 쉽게 다운 및 저장할 수 있 어야 한다.

2.1.4 각 세부 작업별 관련 항목 등을 저장하고 불러서 사용하는 기능

각 MM5의 작업은 많고 복잡한 입력항목들이 있다. 이들을 사용할 때마다 새로 입력하는 것은 시간이 많이 소요되고 실수할 확률이 높다. 웹포털에서 복잡하고 자 주 사용하는 항목들에 대해서 한번 작성한 뒤에 계속 사용할 수 있게 함으로써 사 용자가 새로 실행마다 다시 설정하지 않아도 된다.

(34)

2.2 구성요소

<MM5 그리드 포털을 통한 작업 실행 시나리오>

MM5 포털 서비스, 그리드 미들웨어(KMI-R2), 그리드 테스트베드의 구성요소로 이루어져 있다. 사용자는 웹포털 화면을 통해 모든 MM5 작업의 각 단계를 수행할 수 있다. 이때 MM5 포털 서비스를 이용해서 작업을 제출하게 되고, 모니터링 하 며, 작업 결과를 확인한다. 대규모의 계산 자원이 필요한 경우는 그리드 미들웨어 를 이용해서 그리드 테스트베드 자원을 활용한다.

MM5 포털 서비스는 그리드 기반의 MM5 웹포털 서비스를 위한 구성 요소이다.

앞에서 언급한 MM5의 각 단계인 지형생성, 전처리, 메인, 후처리 작업에 대해서 구현되어 있다. 메인 작업을 수행 시는 그리드 테스트베드를 활용하기 위해 그리드 미들웨어를 이용한다. 그리드 미들웨어는 그리드 계산 자원 기반의 그리드 서비스 를 제공하기 위함을 목적으로 하고 있으며, 그에 따라 상용 서비스 수준의 안정성 과 성능을 보장한다. 또한 단순한 웹 기반 슈퍼컴퓨팅 서비스를 제공하는 차원을 넘어서서 단일 컴퓨팅 자원의 한계를 넘어서는 무한에 가까운 컴퓨팅 능력을 사용 자에게 제공할 수 있게 한다. 마지막으로 그리드 테스트베드는 국내외 그리드 기반 응용 연구자가 상시적으로 활용할 수 있는 대규모 컴퓨팅 인프라스트럭처에 대한 요구에 발맞추어 국내 고성능 연구 자원인 슈퍼컴퓨터, 클러스터, 대용량 스토리지 등을 그리드 기술 기반으로 연계 활용하기 위한 인프라로서 구축되었다.

(35)

2.3 상세 설계

2.3.1 그리드 사용자 로그인 과정

그리드 테스트베드를 활용하기 위해는 그리드 사용자 인증 과정을 거쳐야 한다.

서로 다른 기관의 계산 자원을 활용하기 위해서는 기관과 사용자 사이의 신뢰할 수 있는 방법이 필요한데 이것을 그리드 미들웨어에서 제공한다. 사용자는 처음 등 록시 사용 자에 대한 인증서를 입력하고, 1년마다 갱신해주어야 한다. 실제 사용시 사용자가 ID와 패스워드 방식으로 한번만 로그인을 하면, 모든 자원에 대한 사용 권을 얻게 된다.

2.3.2 그리드 계산 자원 확인

그리드 테스트베드의 계산 자원을 활용하기 위해 사용자는 현재 사용가능한 자 원을 확인할 수 있어야 한다. 작업을 제출하기 전에 클러스터나 슈퍼컴퓨터 등의 계산 자원의 구체적인 사양인 CPU, 메모리, 스토리지 공간 등을 확인하고, 사용가 능한 자원을 확인하게 된다. 이것은 그리드 미들웨어의 자원 모니터링(Resource Monitoring) 구성요소를 통해 구현이 된다.

2.3.3 MM5의 작업 제출 과정

MM5의 각 과정인 지형생성(TERRAIN), 전처리(PRE-PROCESSING), 메인 (MAIN-PROCESSING), 후처리(POST-PROCESSING) 작업의 단계별 수행이 이루어 진다. 각 과정은 앞의 과정이 종료되어야 수행가능하다. 앞 과정 수행이 종료되면 다음 과정 버튼이 활성화 된다.

지형생성 과정

모델 영역 설정, 지형고도 및 지면이용정보를 선택된 영역으로 분석하는 과정으 로 작업 제출 과정 중에 가장 먼저 수행이 된다. 지형생성에 필요한 다음 주요 항 목들을 웹인터페이스를 이용해 입력가능하다.

․도메인의 최대 크기 (IIMX, JJMX)

․지형자료의 최대 크기 (ITRH, JTRH)

․중심 위경도 좌표

․기타 도메인 관련 설정 (IEXP, AEXP 등)

지형생성 수행이 끝나면 TER.PLT파일과 표준입출력 파일(terrain.print.out)이 생 성되고 실제로 사용자의 요구에 맞게 생성되었는지 그림 파일과 관련 메시지로 웹 화면에서 확인할 수 있다.

(36)

전처리 과정

생성된 지형자료에 대해서 사용자의 요구사항에 맞게 MM5 메인 과정의 입력 자 료로 변환하는 과정으로 지형자료가 생성되고 나면 수행된다. 입력받은 다음 항목 을 이용해 PREGRID, REGRIDDER, INTERPF 세 과정을 차례대로 수행한다.

․입력 자료 선택 (전구모델자료(GDAPS , GFS)와 수면온도자료(SST))

․예측 시간 선택

․도메인 관련 입력 요소 (sigma_f_bu)

․태풍 보거스를 위한 자료 설정 (태풍 위경도 좌표, 최대 풍속 등)

PREGRID 수행을 위해 pregrid.csh 파일을 생성 후 실행하고, REGRIDDER 수 행을 위해 namelist.input 파일을 생성 후 실행하고, REGRID_DOMAIN1 파일 생 성 확인 후 INTERPF 수행한다. INTERPF 수행을 위해 namelist.input 파일을 생성 후 실행한다. 마지막으로 MMINPUT_DOMAIN1파일,BDYOUT_DOMAIN1파일, LOWBDY_DOMAIN1 파일 생성 확인이 되면 전처리 과정이 수행 완료된다.

메인 과정

지정된 시간과 영역에 대한 실제 예보를 수행하는 본체 과정으로써 전처리 과정 에서 필요한 파일이 생성되고 나면 수행한다. 두 개의 도메인 영역에 대해서 수행 을 하며 도메인 작업 중간에 NESTDOWN과정을 거쳐서 수행한다. 그리드 테스트 베드의 계산 자원을 선택하면 각 자원을 이용해 본체 과정을 수행한다.

전처리 과정에서 생성된 파일인 MMINPUT_DOMAIN1, BDYOUT_DOMAIN1, LOWBDY_DOMAIN1을 해당 그리드 자원으로 이동하고, 그리드 미들웨어를 이용 하여 첫 번째 도메인에 대한 MM5 작업 요청한다. 첫 번째 도메인 작업수행이 완 료되면 MMOUT_DOMAIN1파일이 생성되었는지 확인 후 NESTDOWN과정을 거 친다. NESTDOWN과정을 수행하기 위해 namelist.input을 생성후 nestdown파일을 포털에서 수행한다. NESTDOWN과정에서 MMINPUT_DOMAIN2 파일, BDYOUT_DOMAIN2 파일, LOWBDY_DOMAIN2 파일이 생성되고 이 파일을 이 용해서 두 번째 도메인 작업을 수행한다. 두 번째 도메인 작업을 수행하고 MMOUT_DOMAIN1파일이 생성되었는지 확인되면 두 번째 도메인 작업 완료한다.

마지막으로 두 개의 도메인에서 수행되었던 각 생성파일인 MMOUT_DOMAIN1파 일을 웹포털 서버에 다시 이동하여 후처리 과정을 수행할 수 있게 한다.

(37)

후처리 과정

예보 결과를 어떻게 볼 것인가 하는 가시화 과정으로써 NCAR에서 제공하고 있 는 RIP도구를 이용해 가시화를 수행한다. 메인 작업에서 수행된 두 개의 도메인 수행 결과물에 대해서 각각 웹인터페이스에서 가시화가 가능하다.

2.3.4 MM5의 작업 확인 과정

MM5의 각 단계별 작업 제출 내역을 확인하는 과정이 필요하다. 이때 각 단계의 상세 정보 및 가시화 내용을 확인할 수 있어야 한다. 또한 MM5 메인 작업 수행시 작업 수행 내역의 상세내역을 확인해야 한다. 이때 작업을 취소할 수도 있다.

3 기후 예측모델 포털 설계

3.1 웹포털 구조

CCSM 기후 예측 모델을 위한 웹 포털은 다음 그림과 같은 간단한 구조를 가지 고 있다. CCSM 응용은 현재 KISTI 슈퍼컴퓨터 3호기와 4호기 계산자원에서 수행 이 가능하다. 리눅스 클러스터에서도 수행이 가능하다고 알려져 있지만, MPI 라이 브러리에 문제가 발견되어 현제까지는 리눅스 클러스터에서는 수행하지 못하였지 만 가능할 것으로 예상하고 있다. 웹서버는 사용자 입력을 요구받고, 계산자원에 작업을 실행하고, 실행중인 작업을 모니터링 하며, 수행이 끝난 작업의 결과를 웹 페이지로 구성하여 웹 브라우저를 통하여 사용자에게 제공하는 중심 역할을 담당 한다. 웹 서버와 계산 자원간에는 사람의 개입 없이 원격 명령 실행이 가능하도록 하기 위하여 SSH(Secure Shell)에서 공개키를 등록하도록 설정하였다.

<CCSM 웹포털의 구조>

(38)

웹서버와 슈퍼컴퓨터 3호기의 소프트웨어 설치 환경은 다음과 같다.

▪웹서버 (pluto)

Redhat Linux 9, Apache 2.2.8, PHP 5.2.5

▪KISTI 슈퍼컴퓨터 3호기 (nobel)

AIX 5.2, GPFS 2.3, LoadLeveler 3.3.1, XL Fortran for AIX 9.1

3.2 주요 기능

CCSM 웹 포털은 다음과 같은 4개의 메뉴로 구성되어 있다.

▪시스템 선택 : 작업을 수행할 시스템을 선택한다.

▪작업 준비: CCSM 작업 실행을 위한 입력값들을 입력한다.

▪모니터링: CCSM 작업이 끝날때까지 진행상황을 감시한다.

▪결과표출: 수행이 끝난 작업에 대한 결과를 그림으로 표시한다.

3.2.1 시스템 선택

CCSM 응용은 KISTI IBM 3호기와 4호기에서 수행이 가능하지만, 웹포털에서는 3호기에 대해서만 작업 수행이 가능하다. 따라서 시스템 선택은 IBM 3호기로 고정 되어 있다.

3.2.2 작업준비

작업 준비는 CCSM 기후 예측모델을 실행하기 위한 파라미터를 입력하는 기능으 로써, 다음과 종류의 값들을 입력할 수 있다.

▪CASE : 실행의 실험의 제목

▪CASEDIR: 실험시 사용할 공유스크래치 경로

▪Component Set: B, H, K 중의 하나. CCSM에 참여할 성분의 조합

▪Component OpenMP Threads: OpenMP를 위한 스레드 개수

▪GRID: 해상도

▪RUN_STARTDATE: 모형 실행 시작일자

▪STOP_OPTION: 모형 수행 기간 (일,월,매일,매월,매년)

(39)

<CCSM 작업 준비 화면>

3.2.3 모니터링

입력 파라메터를 입력하고 작업을 실행하게 되면 모니터링 메뉴에서 작업의 진 행 상태를 감시할 수 있다. 큐의 대기 상태, 작업의 진행 정도를 표시하여 준다. 작 업의 진행 정도는 atm 대기 모형을 기준으로 수행결과 출력 파일에서 NSTEP 이 증가 되는 것을 기준으로 % 진행율을 표시하여 준다.

(40)

<CCSM 작업 모니터링 화면>

<모니터링할 작업을 선택하는 화면>

모니터링 과정은 계산 자원에 설치된 몇가지 쉘 스크립트를 웹 포털서버에서 호 출하여 결과를 얻음으로써 이루어진다. 계산 자원(서버)에서 작업이 완료 되면, CCSM의 각 성분별 로그파일이 웹서버로 전송되어 지정된 장소에 보관된다. 구체 적인 모니터링 과정은 다음 그림과 같다.

(41)

(대기상태) 대기상태로 출력

(오류)

각 성분별 로그 파일의 마지막부분을 보여줌

※ 계산서버에서 작업이 완료되면 각 성분별 로그파일을 웹서버 로그 디렉터 리에 복사함

(작업완료) 1)웹서버 LogDir에

로그 파일 ?

YES

2) 계산 서버에 큐상태 확인

NO

(작업중) Get_writing_percent.sh

로 percent계산 R

3) 진행율이 100%

인가?

NULL

(작업완료)

YES NO

I,NQ

<모니터링 과정>

3.2.4 결과표출

CCSM 기후 예측 모형의 수행 결과는 GRADS라는 소프트웨어를 이용하면 PNG 이미지 파일로 변환가능하다. 실험에 사용된 성분과 표출할 변수, 레벨, 시간 등 주 어진 조건에 따라 다양한 결과가 얻어질 수 있다. 작업실행시 후 처리 부분에서 결 과를 PNG 이미지로 생성하는 작업을 하게 되고, 결과표출 화면에서는 주어진 파 일이름 규칙에 따라, 만들어진 이미지를 브라우저에 표시하게 된다. 결과 표출 화 면의 예제를 그림에 나타내었다. 성분, 변수명, 연직레벨, 시간 선택에 따라서 각기 다른 이미지가 표출된다.

참조

관련 문서

Ⅰ.. □ 따라서 국내 신재생에너지 기업들의 해외시장 진출을 통한 시장 확대가 필수 이며, 이를 위한 효과적인 금융 지원 및 금융 모델에 대한 연구 필요. ○ 절대적

에너지 자원분야에서는 현재 각 기관 구축된 자료의 공유 활성화 및 활용 기술 개발을 중점적으로 추진할 필요가 있다 활용할 경우 중복투자 방지를 통한 비용 손실을 줄

그리드는 공간적으로 진입 가능한 모든 열린 공간(Open Space) 들에 구성되며 상호 연결된 연속적인 공간 구조를 형성하게 된다. 이와 같은 공간 구조 속에 나타나는

자석의 움직임을

그리드 종이를 주면 패턴을 배열하는데 용이하다... 식물세포에는 규칙적인

신재생 에너지에 관한 동영상을 보여주며 자연스럽게 신재생 에너지의 개 념이 생기도록 하는 동시에 신재생 에너지 개발의 필요성을 느끼도록 유도 한다...

STEAM Outreach 프로그램이란 과학, 기술, 공학 및 예술 분야의 가장 첨단에 있는 전문가들이 직접 자신의 연구 분야를 학생들에게 소개함으로써 학교에서는 수 행할 수

아두이노 릴리패드는 옷에 부착할 수 있는 작고 얇은 아두이노 보드이기 때문 에 착용 컴퓨팅(Wearable Computing)과 같은 응용 분야에서 활용할 수 있다..