• 검색 결과가 없습니다.

슈퍼컴퓨터 사용자지원프로그램 조사 비교

N/A
N/A
Protected

Academic year: 2021

Share "슈퍼컴퓨터 사용자지원프로그램 조사 비교"

Copied!
64
0
0

로드 중.... (전체 텍스트 보기)

전체 글

(1)
(2)
(3)
(4)
(5)
(6)

1. NCSA

가. 소개 및 임무

NCSA (National Center for Supercomputing Applications)는 TeraGrid1)

의 컴퓨팅 자원을 제공하는 11개 기관 중 하나로서, NSF2) (National Science Foundation)가 지원하는 연구자들에게 TeraGrid의 자원배분 정책 및 절차를 통해 컴퓨팅 자원을 제공한다. NCSA의 슈퍼컴퓨터 도입․운영은 NSF가 지원하며, 미국 내 과학자들에게 새로운 질병치료 개발, 기상예보 정확도 향상 등에 필요한 컴퓨팅 자원을 제공한다. 미국 전역에서대학이나 연구기관에 소속된 2000명 이상의 과학자들이 NCSA의 슈 퍼컴퓨터를 사용하고 있다. NCSA의 슈퍼컴퓨터는 원격으로 접근이 가능하다. NCSA의 임무는 과학적 혁신부터 사회과학적 진보, 그리고 예술적 창의성 에 이르기까지 다양한 범위에 걸친 발전을 촉진하는 것이다. NCSA는 고성능 컴퓨 팅, 데이터 관리, 과학적 가시화, 비주얼 데이터 분석 등 고급 IT 기술 분야의 전문 성을 예술, 건축, 농업 공학, 항공학 등 분야에 적용한다.

NCSA는 2011년에 Blue Waters3)라는 새로운 컴퓨팅 시스템을 도입할 예

정이다. Blue Waters는 NSF의 지원을 받아 NCSA가 일리노이 대학, IBM과 함께 개발하고 있는 슈퍼컴퓨터이다. 오늘날의 슈퍼컴퓨터가 보통 초당 1조번의 실수연 산(1Teraflop/s, 1TF)을 하는 반면, Blue Water는 초당 1000조번의 실수연산 (1Petaflop/s, 1PF)을 하게 된다. NCSA의 다른 슈퍼컴퓨터들과 마찬가지로, Blue Waters는 미국 전역의 연구자들이 기밀 취급이 아닌 연구가 목적일 경우 사용 가 능하다.

1) TeraGrid is coordinated through the Grid Infrastructure Group (GIG) at the University of Chicago, working in partnership with the Resource Provider sites: Indiana University, the Louisiana Optical Network Initiative, National Center for Supercomputing Applications, the National Institute for Computational Sciences, Oak Ridge National Laboratory, Pittsburgh Supercomputing Center, Purdue University, San Diego Supercomputer Center, Texas Advanced Computing Center, and University of Chicago/Argonne National Laboratory, and the National Center for Atmospheric Research. ( https://www.teragrid.org/)

2) The National Science Foundation (NSF) is an independent federal agency created by Congress in 1950. (http://www.nsf.gov/about/)

(7)

나. 자원 현황

NCSA가 보유하고 있는 시스템4)은 아래 표와 같다.

<표1> NCSA 보유 자원 현황

시스템명 규격 및 성능 용도

Cobalt SGI Altix Itanium2: 1024CPUs,

8.2TF, 메모리 3TB, 데이터 60TB 계산

Lincoln Dell Intel 64 Tesla Cluster:

47.5TF 계산

Abe Dell Intel 64 cluster:

89.47TF, 메모리 400TB 계산 Archival Storage 3PB 데이터 저장

다. 자원 할당

NCSA의 자원 할당5)은 보통 1년 단위로 이루어지지만, 1년 이상의 자원 할 당이 한 번에 이루어지는 경우도 있다. 미국의 학문 기관, 비영리 연구기관, 또는 산업체 연구 기관의 교육자나 연구원은 Principal Investigate (PI)로써 TeraGrid의 자원을 할당받을 수 있다. TeraGrid 자원의 지급 절차는 지급 요청의 목적에 따라 두 종류가 있다: 1. 신규 착수 및 교육 목적의 신규 할당 (Small Allocation) 2. 연구 목적의 할당 (Large Allocation) 신규 할당의 경우, 한 해 내내 지속적으로 검토되므로 TeraGrid의 지원을 받는 가장 빠른 방법이기 때문에 신규 사용자들에게 권장되는 방법이다. 적은 양의 자원이 필요한 개발 및 교육을 목적으로 하는 지급 요청에 대한 자원 할당은 연중 검토되는 것과 달리, 많은 양의 자원을 필요로 하는 지급 요청에 대한 자원 할당은 분기별 TRAC (TeraGrid Resource Allocation Committee) 회의를 통해 이루어진 다. 이전에는 연구 목적의 자원 할당을 중규모 할당(Medium Allocation)과 대규모 할당(Large Allocation)으로 나누었으나, 2008년에 대규모 할당으로 통합하였다. 자원 할당은 다년과제를 제외하고는, 매년 한 번 이루어진다.

4) http://www.ncsa.illinois.edu/UserInfo/Resources/Hardware/

(8)

라. 프로그램

학문 추구를 목적으로 하는 연구자들에게는 NCSA 슈퍼컴퓨터 사용이 무상 으로 지원된다. Non-TeraGrid NCSA 자원 할당 요청은 NCSA Support Group으 로 직접 제출하거나 하단에 제시된 프로그램을 통해서 제출 가능하다.

1) PSP (Private Sector Program)

NCSA와 선두 산업체와의 협력 프로그램으로써 실생활의 문제를 해결하기 위해 이론과 응용을 통합한다. 현재 이 프로그램에 참여하고 있는 산업체는 Boeing, Caterpillar, John Deere, GE, IBM, IllinoisRocstar, Microsoft, Motorola, Procter & Gamble, Rolls-Royce, and Waterborne Environmental 등 이다.

b) IACAT (Institute for Advanced Computing Applications and Technology) IACAT는 UIUC(University of Illinois at Urbana-Champaign) 연구진과 NCSA 직원들 간의 통합 촉진을 통해 여러 문제들을 해결하는 데 이바지하도록 하 고 있으며, 일리노이대 캠퍼스의 연구 계획을 NCSA의 선진 기술과 통합한다. NCSA의 Abe cluster의 cycle 절반 정도는 IACAT 연구원들과 다른 대학 및 주립 연구 계획에 할당되고, 나머지는 국립 연구단체에 할당된다.

c) UIUC FFP (Faculty Fellows Program)

(9)

2. SDSC

가. 소개 및 임무

SDSC (San Diego Supercomputer Center)는 1985년에 샌디에고에 위치 한 캘리포니아 주립대의 연구기관으로 설립되었으며, 주로 NSF로부터 후원을 받고 있다. SDSC는 설립 당시 NSF의 슈퍼컴퓨팅센터 프로그램으로부터 170만 달러의 보조금을 받았다. SDSC의 임무는 고성능 하드웨어 장비, 통합적인 소프트웨어 기술, 커뮤니 티 간의 상호 전문지식 교류 환경 등을 제공하여 연구자들의 과학적 기량을 높이는 것이다. 기술과 과학의 교차영역에서 광범위한 협력 활동을 통해 다음 세대의 과학 적 진보를 추구하고 있는 SDSC는 계산 과학 및 공학 분야에서 활동 범위를 넓혀 가며, 약 40개의 미국 내 대학 파트너들과 NPACI6) (National Partnership for

Advanced Computational Infrastructure)를 구성하여 1997년부터 2004년까지 운 영하였다.

NPACI에 이어서, SDSC는 통합적이며 데이터 집중적인 계산시스템을 제공 하기 위해 "Triton Resource"7)를 운영하고 있는데, 이 "Triton Resource"는 샌디

에고에 위치한 캘리포니아 주립대인 UCSD (University of California at San Diego) 뿐만 아니라 다른 지역의 캘리포니아 주립대들을 지원하는 데에도 이용된 다. 또한 다양한 분야의 데이터 집중적인 문제 해결을 위해 "Dash"8)라는 고성능

계산시스템을 출시했다.

CIP9) (Cyberinfrastructure Partnership)는 미국 내에서 더 다양하고 복합

적인 사이버인프라 활동을 촉진시키기 위한 것으로, NSF의 지원을 받아 SDSC와 NCSA가 공동 협력하여 만들었다. CIP에 대한 상세한 정보는 다음 웹사이트에서 제공되고 있다.

6) http://www.npaci.edu/

7) The Triton Resource provides easily accessible, affordable, high-performance and data-intensive compute resources to UCSD researchers, faculty, affiliates, government and commercial partners through innovative, locally supported, scalable hardware and software over multiple 10-gigabit networks extending from campus laboratories to the UC network, California, and the US. (http://tritonresource.sdsc.edu/)

8) http://www.sdsc.edu/us/resources/dash/

(10)

나. 자원 현황

SDSC가 보유하고 있는 시스템10)의 종류와 성능은 아래 표와 같다. 시스템명 규격 및 성능 용도 TeraGrid Cluster Itanium2 524 CPUs, 3.1TF, 메모리 1TB, 디스크 50TB 계산

Dash TeraGrid Resource, 512 compute cores,

5.2TF, 메모리 7TB 계산 Archival Storage 25 PB 데이터 저장 <표2> SDSC 보유 자원 현황

* CIP : CyberInfrastructure Partnership Computational Resource TG : TeraGrid Computational Resource

SDSC는 보유 자원을 다양한 연구단체에 제공하고 있는데, 캘리포니아 주립 대 연구원들, 미국 내의 학문 추구를 목적으로 하는 연구원들, 제휴 산업체들이 주 로 사용하고 있다.

다. 자원 할당

SDSC는 TeraGrid를 통해 최초로 자원을 제공한 기관이다. 2002년부터 TeraGrid 프로그램의 주요 파트너로 참여하고 있는 SDSC는 TeraGrid를 이용하려 는 과학자들의 데이터 집중적인 컴퓨팅에서 필요로 하는 것에 초점을 맞추었다. 또 한, 계산 과학 및 공학 분야의 연구 활동에 공헌하기 위해 TeraGrid 사이버인프라 내부의 활동과 자원을 통합시켰다. TeraGrid를 통해 할당 가능한 자원은 POPS11) 를 통해 지급되며, 미국 전역의 연구원들은 POPS를 통해 자원 지급 요청을 제출할 수 있다.

SDSC는 Triton Resource의 고향이라고 할 수 있으며, Triton Resource는 주로 UCSD와 다른 지역 캘리포니아 주립대 소속 연구자들을 위한 비용 효율이 높 은 고성능 컴퓨팅 시스템이다. TAPP (Triton Affiliates and Partners Program)는 이 자원에 접근할 수 있는 다양한 방법을 제공한다. 이 프로그램을 통해 다른 외부 의 대학, 연구 기관, 정부 기관 그리고 산업체까지 남아있는 수용 량을 고려하여 제 공한다.

10) http://www.sdsc.edu/services/hpc.html

(11)

SDSC는 Dash라는 대규모 메모리의 자원을 지급하기 시작했는데, Dash를 통해 계산 대기 시간을 크게 줄일 수 있다. Dash의 모든 신규 자원 할당은 TeraGrid의 자원 할당 관리시스템인 POPS를 통해 처리된다. Dash의 신규 자원 할당은 POPS에서의 적합성이 검토되기 때문에 모든 요청이 승인되는 것은 아니다.  자원 할당

1) UCSD를 통해 이용 가능한 자원

UCSD와 산업 연구원들은 TAPP를 통해 Triton Resource의 컴퓨팅 시간 또는 저장 공간을 요청할 수 있다. 2) ASTA12) 프로그램을 통해 이용 가능한 자원 이 프로그램은 SDSC 직원들의 전문성과 TeraGrid 자원 사용자들 간의 협 력 환경을 제공하여 더 나은 코드를 개발할 수 있도록 돕는다. 다른 컴퓨터나 데이 터 자원 요청과 함께 요청할 수 있다. 3) 기타 이용 가능한 자원 계산 자원 할당 여부에 관계없이 자격조건에 맞는 연구원들은 데이터 컬렉 션 호스팅, 데이터베이스 호스팅 그리고 장기간 파일보관을 위해 SDSC의 중앙 데 이터 설비의 데이터 할당을 요청할 수 있다.

라. 프로그램

1) 무상 지원 프로그램: SAC/SCC 프로그램

(Strategic Applications Collaborations/Strategic Community Collaborations)

SAC/SCC 프로그램은 미국 내 학자들의 계산 과학 및 공학 연구 분야에서 의 연구 활동을 지원하는 것을 목적으로 한다. 이 프로그램을 통해 과학 분야의 전 문 지식을 가진 과학자들과 컴퓨터 분야의 전문 지식을 지닌 SDSC 직원들이 한 팀을 이룬다. 또한 SAC/SCC 프로그램은 SDSC-NCSA CIP의 일부분으로 NCSA의 SAC와 협력한다.

(12)

 선정 절차 SAC/SCC 과제들은 SAC/SCC 담당 직원들과 SDSC 그룹 지도자들, SDSC 임원들에 의해 선정된다. SAC/SCC는 과제 선정을 위해 다음 기준을 사용한다. • SDSC의 고급/ 데이터 집중 컴퓨터의 비전에 적합한가? ◦ 많은 양의 데이터를 생산, 사용 또는 분할 ◦ SDSC 직원들의 전문성과 자원을 충분히 활용 • 윤곽이 뚜렷한 지침을 통한 구체적인 성과의 가능성이 높은가? • SDSC 직원과의 공동 작업에 관심이 있는 PI에 의해 지도되고 있는가? • SAC/SCC 직원의 기여를 생산 코드에 포함할 것인가? • 커뮤니티를 위한 코드와 소프트웨어 패키지를 이끌어 갈 것 인가? • 사회 과학, 경제 등 다른 새로운 커뮤니티를 수반하고 있는가? • 전체적으로 보았을 때, 큰 영향력이 잠재되어 있는가?

2) 유상 지원 프로그램: TAPP (Triton Affiliates and Partners Program)

TAPP는 캘리포니아 주립대 연구원들과 그 협력자들을 위해 SDSC의 Triton Resource를 통해 비용 효율적인 자원을 제공한다. SDSC의 Triton Resource는 두 개의 하위 시스템으로 구성된다: TACC (The Triton Compute Cluster)와 PDAF (Petascale Data Analysis Facility).

(13)

Triton Resource 사용 가격은 기초(base) SU (Service Unit)을 기반으로 책정된 다. 여기서 1 기초 SU는 2.4GHz 프로세서 클록 율(clock rate)을 가지고 있는 TCC의 1 코어-계산시간과 같다.  TAPP 가격 정책14) <표4> TAPP 가격 및 조건 (2010년 5월 6일 이후부터 시행): TCC 가격 (per base SU) 최소 첫 구매량 최소 차후 구매량 Exchange rate on PDAF 256GB node Exchange rate on PDAF 512GB node 캘리포니아 주립대 (UC) $0.06 $500 (8,333 SUs) $250 (4,167 SUs) 2X 4X 외부 대학 (Non-UC), 정부, 산업체 $0.15 $,2500 (16,667 SUs) $1,250 (8,333 SUs) 2X 4X

1. TCC = Triton Compute Cluster

2. PDAF = Petascale Data Analysis Facility

3. One base service unit (SU) = one core-hour on TCC at 2.4GHZ 4. Explanation of exchange rates:

One core-hour of computation on a PDAF-256 node requires two base SUs (at a 2X exchange rate).

One core-hour of computation on a PDAF-512 node requires four base SUs (at a 4X exchange rate).

※ 자료출처: SDSC 웹 사이트 http://www.sdsc.edu/

(14)

3. PSC

가. 소개 및 임무

PSC (Pittsburgh Supercomputing Center)는 미국 피츠버그 시에 위치한 카네기 멜론 대학 (Carnegie Mellon University), 피츠버그 대학 (University of Pittsburgh), 웨스팅하우스 전기회사(Westinghouse Electric Company) 간 협력 아 래 1986년에 설립되었으며, 연방 정부 기관의 재정 지원을 통해 운영되고 있다. SDSC와 NCSA와 마찬가지로 NSF TeraGrid 프로그램의 자원 제공 기관인 PSC는 대학, 정부 그리고 산업체 소속의, 기밀이 아닌 연구를 수행하는 연구자들에 게 고성능 컴퓨팅, 통신 및 데이터 처리 서비스를 제공한다. 또한 PSC는 최첨단 고 성능 컴퓨팅, 통신 및 정보 과학을 발전시키고, 계산과학 분야의 어려운 문제들을 풀기 위한 환경을 제공한다.

나. 협력

PSC의 NRBSC15) (National Resource for Biomedical Supercomputing)

는 미국 국립보건원 (National Institute of Health)의 후원을 받아, 생물 의학 연구 계의 공동 과제 작업 수행을 조성하고 슈퍼컴퓨팅 자원 제공과 더불어 새로운 알고 리즘 개발, 연구 작업 그리고 연수 등에 힘쓰고 있다.

미국 에너지성 (Department of Energy) 산하의 국립에너지기술연구소 (National Energy Technology Laboratory), 카네기 멜론 대학 (Carnegie Mellon University), 피츠버그 대학 (University of Pittsburgh), 웨스트 버지니아 대학 (West Virginia University), West Virginia Governor's Office of Technology, The Institute for Scientific Research, Duquesne University, 펜실베니아 주립 대학 (The Pennsylvania State University), Waynesburg College와 협력하여, PSC는 이들 과학컨소시엄에 슈퍼컴퓨팅 자원을 제공하고 있다.

또한 PSC는 펜실베니아 연방과 제휴를 맺어 무상으로 펜실베니아의 연구원 들에게 슈퍼컴퓨팅 시간을 제공하고 있다.

(15)

다. 자원 현황

PSC가 보유하고 있는 시스템16)의 종류와 성능은 아래 표와 같다.

<표5> PSC 보유 자원 현황

시스템명 규격 및 성능 용도

Pople SGI Altix SMP, 768 cores,

5.1TF, 메모리 1.5 TB 계산

Salk SGI Altix SMP, 144 cores,

메모리 288GB 계산

Warhol HP c3000 cluster, 64 cores,

181GF, 메모리 128 GB 계산 Archival Storage (Golem) 2PB 데이터 저장 자격요건을 갖춘 과학자, 기술자 및 과학 분야 교육자들은 PSC에 슈퍼컴퓨 팅 시간 할당을 요청할 수 있다. PSC는 여성 및 장애인들도 연구 및 연구 관련 프 로그램에 참여하도록 권장하고 있다. PSC는 비영리 연구 범주 안에서 무료로 자원 을 제공하고 있다. 영리 연구 분야의 연구자가 PSC 시스템을 사용하고자 하는 경 우에는 PSC의 Corporate Affiliates 프로그램을 통해 자원을 요청할 수 있다. 무료 로 자원을 할당 받기 위해서는 반드시 비영리이어야 하며, 무료 할당 조건에 해당 되지 않는 과제들의 경우에는 PSC의 Corporate Affiliates 프로그램 사무실에 연락 하여 따로 구매 가능하다.  자원 할당 유형 1) 비영리 연구 (무상 지원) 미국 내 학문적 또는 비영리 연구기관과 제휴를 맺은 연구원이나 교육자들 을 위한 할당은 NSF 사이버인프라 프로그램을 통해 가능하다. Pennsylvania Institutions of Higher Learning과 제휴를 맺은 경우에는 미연방에서 자원 할당을 후원하며, 자연 생물의학 연구의 경우에는 PSC의 NRBSC에서 지원한다.

2) 교육 (무상 지원)

교사들은 고성능 컴퓨팅을 통한 대학 학부 강의 보충을 위해서 교육 목적의 자원을 할당받을 수 있다. PSC는 EOT(Education, Outreach and Training) 프로 그램을 통해 슈퍼컴퓨팅과 첨단 기술연구의 응용을 이해할 수 있도록 돕는다.

(16)

3) 영리 연구 (유상 지원) 영리 연구를 위한 자원 할당은 PSC의 Corporate Affiliates 프로그램을 통 해 받을 수 있다.

마. 프로그램

PSC는 몇 개의 프로그램을 통해 슈퍼컴퓨팅 자원을 무상으로 지원하고 있 다. 유상 지원 프로그램은 따로 명시되어 있지 않으나, 자격 요건에 맞지 않는 경우 에는 유상 지원을 통해 할당을 지급받도록 명시되어 있다. 1. Corporate Affiliates 프로그램17) 이 프로그램은 PSC가 산업적 기업 파트너에게 고성능 컴퓨팅 자원과 고성 능 컴퓨팅 기술 활용에 필요한 전문지식을 제공한다. PSC의 임무는 고성능 컴퓨팅 을 통해 해당 기업이 어려운 문제들을 해결하고 경쟁력을 얻도록 도와주는 것이다.

2. NanoMaterials Commercialization Assistance Center 프로그램

이 프로그램은 PSC의 Corporate Affiliates 프로그램의 연장으로, PSC는 NanoMaterials Commercialization Center와 협력하고 있는 NanoMaterial 회사들 에게 PSC 자원에 대한 접근권과 고성능 컴퓨팅 기술 지원을 무상으로 제공한다.

3. Education, Outreach and Training (EOT) 프로그램

(17)

4. SSC

가. 소개 및 임무

SSC (Shanghai Supercomputer Centre)는 2000년 12월에 중국 상하이 지방자치 정부에 의해 설립되었다. SSC는 대중에게 개방된 첫 번째 고성능 컴퓨팅 플랫폼을 운영하고 있으며, 과학 연구, 공익사업 서비스, 산업/공학/상업적 사용자들 에게 온디맨드 고성능 컴퓨팅 자원, 기술 지원, 고급 기술 컨설팅 등을 제공한다. SSC는 주로 상하이 지방자치정부와 중앙 정부에 의해 자금후원을 받는다.

SSC의 고성능 컴퓨팅 자원인 Dawning4000A18)는 2006년 2월에 National

Science and Technology Award를 수상했다. Magic Cube(Dawning 5000A)19)

는 230TF의 이론 성능을 지닌 세계에서 10번째로 빠른 슈퍼컴퓨터로, 2009년 6월 에 SCC에 도입되었다. 현재 SSC의 사용자는 중국 27개 주에 걸쳐 그 숫자가 350 명 이상이다. 현재까지 SSC는 기상 예보, 의약품 고안, 생명 과학, 자동 설계, 신소 재, 토목 공학, 물리, 화학, 항공우주 산업 등에 기여했다. SSC는 National Scientific Advancement Awards도 받았다.

SSC의 주요 목표 및 임무는 다음과 같다: 1. 상하이 info port의 일원으로써, 고성능 컴퓨터와 더불어 자원과 서비스 제 공을 위한 개방적이고 정보 공유가 가능한 환경을 구성하는 것이다. 2. 폐쇄적인 이전의 컴퓨팅센터 운영 방식으로부터 탈피해 새로운 연구와 생 산 방식을 추구하는 것이다. 3. 다양한 분야 간의 협동 기회를 제공하고 과학 연구를 위해 선진적인 환경 을 제공하는 것이다. 4. 다양한 응용 프로그램을 개발하고, 산업 성장을 위해 힘쓰며, 새로운 경제 성장점을 조성하는 것이다. 5. 이론적/기능적으로 완전한 구조를 가진 일류 정보 산업 기반을 수립하는 것이다. 기능적인 면으로는 자원 제공, 기술자 교육, 과학 및 연구 등 다양한 분야 에 대중성 제공을 포함한다.

18) The 5th member of the Dawning family is Dawning Dawning 4000A, debuted as one of the top 10 fastest supercomputers in the world, on the TOP500 list [1], capable of 806.1 billion FLOPS. The system, at the Shanghai Supercomputer Center, utilizes over 2,560 AMD Opteron processors, and can reach speeds of 8 teraflops.

(18)
(19)

5. JAMSTEC

가. 소개 및 임무

JAMSTEC (Japan Agency for Marine-Earth Science and Technology) 은 2004년 4월 1일에 Japan Marine Science and Technology Center로부터 분 리하여 독립 기관이 되었다.

JAMSTEC의 주요 목적은 학문적 연구의 발전기여, 핵심적인 해양 연구 발 전을 이은 해양 과학/기술의 발전 도모, 그리고 인간 복지와 평화를 위한 해양 관련 학문 연구 협력 활동을 발전시키는 데에 있다.

JAMSTEC에 속해 있는 연구 기관 중 하나인 ESC (Earth Simulator Center)는 지구 전체를 수치적으로 모의할 수 있도록 설계된 슈퍼컴퓨터인 지구 시 뮬레이터(Earth Simulator)20)를 보유하고 있다. 지구 시뮬레이터는 과거 데이터에 근거하여 현재 상태를 수치모델로 재현하여 미래를 정확하게 예측할 수 있도록 도 와준다. JAMSTEC은 일본 정부로부터 재정 후원을 받고 있다.

나. 자원 할당

1) JAMSTEC 슈퍼컴퓨터 시스템 JAMSTEC은 내부의 연구 활동을 촉진시키기 위해 슈퍼컴퓨터 시스템을 도 입하였다. SGI Altix 4700 Scalar system과 NEC SX-8R을 포함한 새로운 슈퍼컴 퓨터 시스템은 2006년 9월부터 운용중에 있으며, 이들 시스템은 지구과학 분야의 수치 시뮬레이션과 데이터 분석에 사용되고 있다. 그리고 지구 시뮬레이터와 더불 어 대규모의 시뮬레이션 전후처리 응용프로그램에도 쓰일 예정이다.

(20)

총 CPU 수 1280 개 총 노드 수 160 개 총 이론 성능 131 TF 총 메인 메모리 20 TB JAMSTEC이 보유하고 있는 시스템의 현황은 아래 표와 같다. <표7> JAMSTEC 보유 자원 현황 2) 지구 시뮬레이터  시스템 개요

(21)

다. 프로그램

JAMSTEC 에서 진행되고 있는 프로그램은 따로 온라인상에는 명시되어 있 지 않으나, JAMSTEC의 연구 기관 중 하나이자 지구 시뮬레이터를 운영하고 ESC 에서는 지구 시뮬레이터를 다음 프로젝트들을 통해 활용하고 있다:

1. Earth Simulator Collaboration Projects

Earth Simulator Collaboration Projects는 공공 지원 절차를 통해 선택된 연구 기관들의 지구 모의실험장치 사용을 수반하는 연구 과제이다. 공공 지원 절차 는 매년 행해지며, 지원자 연구 분야는 과학에만 한정되어 있지 않고 컴퓨터 과학 과 다른 선진 과학 분야들까지 포함한다. 2. Specified Projects Specified Projects는 지구 모의실험장치를 이용하여 정부 같은 공공 기관 의 의뢰에 의한 연구에 집중한다. 지구 시뮬레이터를 활용한 연구 목록은 Annual Report를 통해 아래 웹사이 트에서 제공되고 있다. http://www.jamstec.go.jp/esc/publication/annual/index.en.html

3. Industrial Application Projects

(22)
(23)

 World Meteorological Organization (WMO)

 European Organization for the Exploitation of Meteorological Satellites (EUMETSAT)

 African center of Meteorological Applications for Development (ACMAD)  Joint Research center (JRC)

 Preparatory Commission for the Comprehensive Nuclear Test-Ban Treaty Organization (CTBTO)

 Executive Body of the Convention on Long-Range Transboundary Air Pollution (CLRTAP)

 European Space Agency (ESA)

다. 자원 현황

ECMWF는 30년 이상 슈퍼컴퓨터를 사용해왔으며, 몇 개의 하부시스템으로 이루어진 큰 규모의 데이터센터를 가동하고 있다. 회원국은 네트워크를 통해 ECMWF의 메인 시스템에 접근할 수 있고, 수치 계산법을 활용한 기상 예측부터 대 기와 해양의 기후학적/환경적 연구까지 광범위한 분야에서 연구를 수행한다. <표8> ECMWF 보유 자원 현황 시스템명 규격 및 성능 용도 IBM POWER6 Cluster 1600

2× IBM POWER6 Cluster 1600, 32× 4.2GHz Power 6 CPUs

160TF(per cluster), 메모리 1.2PB (SAS disk)

계산 HAPP cluster 5× HP rx4640 Integrity Servers, 4× 1.5GHz Itanium2 CPUs 메모리 4GB, 디스크 2.73GB 데이터 처리 HANFS cluster 2× HP rx4640 Integrity Servers, 4× 1.5GHz Itanium2 CPUs, 메모리 4GB, 디스크 2.73GB 데이터 처리 Cluster "ecgate" 6× IBM p5-575+ servers, 16× 1.9GHz Power 5 CPUs, 메모리 512GB & 64GB, 디스크 146GB 범용

(24)

새로운 IBM POWER6에 관한 더욱 자세한 사항은 아래 표에서 과거 시스 템과의 비교를 통해 확인할 수 있다.

<표9> ECMWF 신규 시스템 성능 비교

Feature New Phase 1 (POWER 6) Phase 4 (POWER5+)

No. of clusters

2 computational clusters 2 IO storage clusters 1 small test system

2 computational clusters 1 small test cluster

1 MC-GPFS "owning" cluster

Performance ~20 TFLOPS (sustained) ~4 TFLOPS (sustained) Each Computational Cluster

Operating System AIX 5.3 AIX 5.3

I/O (VSD) nodes N/A 8 x 16-way p5-575 Network nodes 12 x 32-way p6-575 (10-G-eth/

2xIB4x-DcDR) 2 x 16-way p5-575+ (10-G-eth) Compute nodes 272 x 32-way p6-575 155 x 16-way p5-575+

Node interconnect 8-plane IB4X-DDR Infiniband p-series High Performance Switch (dual-plane) I/O subsystem

Storage cluster 2 of (36 x 4-way p6-520) N/A

Disk types SAS (Serial-Attached-SCSI) FAStT900 (DS4500) Amount of disk ~1.2PB in total ~100TB in total Filesystem MC-GPFS MC-GPFS

Each server (p6-575/p5-575+)

Memory 64GB (~20TB per cluster) 32GB (~4.5TB per cluster) Dual-core chips 16 8

Processors (cores) 32 (~8,700 per cluster) 16 (~2,250 per cluster) SMP building blocks (16) Dual-Chip Modules (DCMs) with

1 dual-core chip on each

(8) Dual-Chip Modules (DCMs) with 1 dual-core chip on each

Each processor (or "core") Lithography 65nm 90nm

No. of transistors 790million (per dual-core-chip) 276million (per dual-core chip) Frequency 4.7GHz 1.9GHz

Peak performance 18.8GFLops (160TFlops per cluster) 7.6GFlops (~19TFlops per cluster) Level-2 cache 2 x 4MB (10-way LRU) 1.92MB (10-way LRU)

Level-3 cache 32MB (12-way LRU) 36MB (12-way LRU) Memory controller 2 x on-chip 1 x on-chip

Additional POWER6 processor ("core") features Upwards binary compatibility with POWER5+

(25)

라. 자원 할당

ECMWF의 컴퓨팅 시설은 다양한 환경의 사용자들에게 열려있다. 하지만, 사용자들은 반드시 적합한 등록 절차를 거쳐 등록이 되어있어야 한다. 1. 회원국 18개의 ECMWF 회원국은 ECMWF의 슈퍼컴퓨팅 자원의 일부를 할당받으 며 또한 이 기관의 자료 저장소 접근권도 부여받는다. 이에 관심이 있는 해당 국가 들의 국가 기상청의 잠재적 사용자들은 Computing Representative에게 연락을 해 야 하고, 만약 지원 허가가 날 경우, 필요한 지원 서류들을 작성해야 한다. 다른 연구 기관이나 대학의 과학자 및 연구원들은 국가 기상청의 관련 담당 자에게 연락을 해야 하며, 그 담당자의 재량에 따라 국가 기상청 외부에의 사용자 들에게 자원이 할당된다. 일단 담당자의 허가를 받고 나면, 국가 기상청 내부에서와 마찬가지로 잠재적인 사용자가 Computing Representative에게 연락을 하고 필요 한 지원 서류들을 작성해야 한다. 2. 특별 프로젝트 앞서 언급한 18개의 회원국 중의 사용자는 “특별 프로젝트”라는 이름 아래 에 자원 할당을 요청할 수 있다. 이 경우는 특히 국가적 또는 국제적으로 여러 개 의 기관이 협력을 통한 프로젝트를 진행할 경우에 적합하다. 여기서 특별 프로젝트 란 “하나 이상의 회원국에 의해 착수되는, 전반적인 과학 커뮤니티의 흥미를 이끌 만한 과학적/기술적 현상에 대한 실험 또는 조사”를 의미한다. 내부 절차는 국가 기 상청에 달려있지만, 특별 프로젝트 지원서에 관한 최종 결정은 국가 기상청에 있는 프로젝트의 PI(Principal Investigator) 담당자에게 달려있다. 또한 할당 기간 도중 에 자원을 다 소모했을 경우에는, 초기 지급 시 ECMWF에 의해 자동 보류된 자원 을 할당받을 수 있다.  특별 프로젝트를 통한 컴퓨팅 자원할당 요청:

(26)

- 2011년 특별 프로젝트를 위한 예상 자원 할당량: HPCF: 1억만 unit (2천만 unit은 나중을 위해 할당 보류) 데이터 저장/보관: 400TB (20TB 나중을 위해 할당 보류) - 2011년의 경우, 하나의 특별 프로젝트에 가능한 최대 할당량: HPCF: 8억만 unit 데이터 저장/보관: 32,000GB  특별 프로젝트 지원 절차

(27)

7. IDRIS

가. 소개 및 임무

IDRIS (Institute for Development and Resources in Intensive Scientific computing)는 CNRS22) (Centre National de la Recherche Scientifique, 또는

French National Center for Scientific Research)의 국립 슈퍼컴퓨팅센터로서 1993년에 설립되었다. IDRIS는 French Ministry for National Education에 의해

후원되고 있는 Montpellier에 위치한 다른 국립 슈퍼컴퓨팅센터 CINES23)

(National Computer Center for Higher Education)와 친밀한 협력 관계를 형성하 고 있다. IDRIS와 CNRS는 프랑스의 학문 연구실에 고급 슈퍼컴퓨팅 자원과 체제를 제공하고 있다. 프랑스 과학 커뮤니티의 고도의 고성능 컴퓨팅 요건을 충족시키기 위해, IDRIS와 CINES는 고급 슈퍼컴퓨팅 환경을 효율적으로 사용하는 동시에, 고 효율적인 사용자지원팀을 통해 과학자들을 지원한다. 또한, 고성능 컴퓨팅을 위한 국가 서버인 IDRIS는 정보기술을 계산 과학에 적용시켜 그 우수성을 증명했다. IDRIS는 CNRS의 "Institute for Computer Sciences"부서(INS2I) 소속으로, CNRS 가 전적으로 후원한다.

IDRIS는 여러 학문 분야를 통틀어 지원하는 서비스 기관으로, 행정위원회 (Administration Committee)와 STII(Information and Engineering Sciences and Technologies CNRS's department)에 보고한다. 행정위원회는 IDRIS의 임무 수행 을 감독하는 역할을 한다. 또한, 고성능 컴퓨팅 자원의 과학적 관리에 관한 IDRIS 의 지향 방침은 Scientific Council 담당이다. IDRIS는 매년 200개 이상의 연구실에서 온 과학자들과 약 420개의 프로젝 트를 관리하고 있다. 약 1,800명의 과학자들은 고성능 컴퓨팅 인프라의 정기 사용 자이기도 하다. IDRIS의 임무는 정보통신 기술을 통한 과학적 발견을 촉진하고 고 성능 컴퓨팅 자원을 필요로 하는 연구 프로젝트들을 지원하는 것이다.

22) The Centre National de la Recherche Scientifique (National Center for Scientific Research) is a government-funded research organization, under the administrative authority of France's Ministry of Research. (http://www.cnrs.fr/en/aboutCNRS/overview.htm) 23) Le C.I.N.E.S. (Centre Informatique National de l’Enseignement Supérieur) est un

(28)

나. 자원 현황

IDRIS가 보유하고 있는 시스템은 아래 표와 같다.

<표10> IDRIS 보유 자원 현황

시스템명 규격 및 성능 용도

Babel

IBM Blue Gene Power/P, 40,960 cores PowerPC 450, 139TF, 메모리 20TB 계산 Vargas IBM SP Power6, 3,586 cores Power6, 68TF, 메모리 18TB 계산

Brodie NEC SX-8, 80 processors,

128TF, 메모리 640 GB 계산

다. 자원 할당

IDRIS 시스템 사용 계정을 얻기 위해서는 자원 할당 요청을 먼저 해야 한다. 자원 할당 요청 지원은 보통 10월에 시작하며, Scientific Committee가 제출된 연구 프로젝트 제안서를 검토하고 그에 따라 그 다음 해의 자원 지급 여부를 결정한다.  IDRIS의 자원 할당 요청 1) The Campaign 2011 award

The Campaign 2011 award는 2010년 9월 15일부터 10월 15일까지 진행된다. 진행되는 캠페인을 통한 자원 할당 요청은 세 기관 (IDRIS, CINES와 CLRB) 모두 아래 제 공된 웹페이지를 통해 DARI 서버를 이용한다. http://www.edari.fr 2) 연중 추가 자원 요청 시 이제 3개의 국립센터 모두 공동서버 http://www.edari.fr 를 통해 연중 추가자원 요청지원이 가능하도록 하고 있다.

(29)

주 된 기록검토 회의는 가을과 늦은 봄에 한 번 열린다. 하지만 프로젝트 시작에 착수하기 위해 일시적으로 자원을 할당받기 위한 요청은 이 회의들과는 별개로 이루어진다. • 신규 프로젝트일 경우:

프로젝트 담당자는 Management form of Account를 작성해 반드시 프로젝트 참 여자 명단을 제출해야 한다. 이러한 절차 없이 자동적으로 계정을 발급받을 수는 없다. 또 한, IDRIS에 처음으로 계정을 발급받는 각 개인은 Form of Undertaking of Protection Account (FePcS)를 작성, 제출해야 한다. 이 서류는 차후의 계정 발급에서도 계속해서 사 용된다.

• 계속 프로젝트일 경우:

단지 이 전에서 변화만 생기는 경우에는 Forms Fogeca, FePcS, FAIP만 필요하 다. 기존 계정의 compute machines와 IDRIS와 연결 가능하게 했던 호스트는 자동으로 그 다음해까지 연장된다.

다. 프로그램

(30)

8. FZJ

가. 소개 및 임무

FZJ (Forschungszentrum Jülich)는 Helmholtz Association24)의 일원으로,

유럽의 가장 큰 연구 기관 중 하나이다. 또한, FZJ는 보건, 에너지, 환경, 정보 통 신 기술 분야에 걸친 문제를 해결하기 위한 최첨단 연구를 추구한다. 물리와 슈퍼 컴퓨팅이라는 두 개의 핵심 수행능력을 결합하여, FZJ는 장기적이고 종합적으로 과 학과 기술뿐만 아니라 특정한 기술 응용에도 기여하는 데에 집중하고 있다. FZJ는 보건, 에너지, 환경 및 나노전자 공학 등의 다양한 분야에 걸친 연구를 지원하고 있 지만 이 기관의 가장 큰 중요성은 슈퍼컴퓨터를 활용한 시뮬레이션 연구에 있다.

 Jülich Supercomputing Centre (JSC)

JSC는 FZJ의 한 부분으로 슈퍼컴퓨팅 자원, IT 시설, FZJ와 NIC25) (John von

Neumann Institute for Computing)를 통해 슈퍼컴퓨터를 사용하는 유럽인들에게 노하우를 제공하는 기관이다. JSC는 슈퍼컴퓨터 운영을 책임지고 있다. 또한, JSC는 중앙 슈퍼컴퓨터 및 서버 시스템과 더불어 캠퍼스의 컴퓨터 네트워크와 통신 시스템 운영을 맡고 있다. JSC 는 새로 설립 된 Institute for Advanced Simulation의 부서로 통합되었다.

 John von Neumann Institute for Computing (NIC)

NIC는 독일과 유럽의 계산 과학 분야를 지원하기 위해 FZJ와 Deutsches Elektronen-Synchrotron DESY가 공동으로 설립하였다. 2006년 4월을 기점으로, GSI Helmholtzzentrum für Schwerionenforschung가 계약 파트너로써 NIC에 가입하였다. NIC 는 과학, 연구 및 컴퓨터 시뮬레이션 분야의 프로젝트를 위해 슈퍼컴퓨터를 활용할 수 있도 록 한다. NIC는 1987년에 설립된 HLRZ (High Performance Computer Centre)의 기능과 과업을 이어받아 성공적인 슈퍼컴퓨팅과 그 응용에 주력을 다 하고 있다. NIC의 슈퍼컴퓨 터는 FZJ와 DESY-Zeuthen에 설치되어 있으며, FZJ의 경우에는 초당 1000조번의 실수연 산(1 petaflop/s, 1PF)의 IBM Blue Gene/P Jugene과 초당 200조번의 실수연산 (200Teraflop/s, 200TF)의 다목적 컴퓨터 Juropa를 통해 컴퓨터 자원을 공급한다.

24) The Helmholtz Association contributes to solving major challenges facing society, science and industry with top scientific achievements in six research areas: Energy, Earth and Environment, Health, Key Technologies, Structure of Matter, Transport and Space. (http://www.helmholtz.de/en/)

(31)

나. 자원 현황

FZJ가 보유하고 있는 시스템의 종류는 아래 표와 같다.

<표11> FZJ 보유 자원 현황

시스템명 규격 및 성능 용도

JUGENE

IBM Blue Gene Power/P,

32-bit PowerPC 450 core 850 MHz, 294,912 processors,

1PF, 메모리 144TB

계산

JUROPA

Intel Xeon X5570 (Nehalem-EP) quad-core, 2.93 GHz, 2208 with two processors each,

207TF, 메모리 52TB

계산

HPC-FF

Intel Xeon X5570 (Nehalem-EP) quad-core, 2.93 GHz, 1080 with two processors each, 101TF, 메모리 24TB 계산 1. Jugene Jugene은 FZJ에 최근에 도입왼 슈퍼컴퓨터이며 초당 1000조번의 실수연산 (1 petaflop/s, 1PF)의 속도로써 현재 유럽에서 가장 빠른 컴퓨터이다. 이것은 50,000대 이상의 PC의 계산 성능과 동일한 속도이다.

2. Juropa (Jülich Research on Petaflop Architectures)

이 시스템은 JSC의 전문가들에 의해 설계되었고 협력 기업체인 Bull, Sun, Intel, Mellanox and ParTec과 함께 구현되었다. Juropa의 운영체제는 FZJ와 ParTec에 의해 개 발되었고, Juropa의 재정 지원은 FZJ가 Helmholtz Association의 후원하는 범위 안에서 이 루어진다.

3. HPC-FF (High Performance Computing for Fusion)

(32)

다. 자원 할당

 JSC의 슈퍼컴퓨터 자원 할당 요청 슈퍼컴퓨터 Jugene과 Juropa 사용을 위한 프로젝트 지원서는 분야에 상관없이 개 인의 연구 분야에 적합한 지식을 지닌 자격이 있는 과학자라면 누구나 제출 가능하다. 컴퓨 팅 자원은 개별적인 감독관의 보고서를 기준으로 할당된다. 각 프로젝트의 과학적인 관련성 을 떠나, 자원 할당에서 중요한 몫을 차지하는 기준은 “해당 프로젝트가 적합하게 컴퓨터를 사용할 수 있는가?”와 “계산 시 다수의 프로세서를 사용하는가?” 이다. 이는 NIC를 통해 자원 할당 요청을 할 경우에도 동일하다. 컴퓨팅 시간 제공은 매년 5월 1일과 11월 1일에 시작되며, 올해의 다음 컴퓨팅 기 간은 2010년 11월 1일에 시작해서 2011년 10월 31일에 끝날 예정이다. 다음 기간을 위한 제안서는 2010년 7월에 접수될 예정이며, 다음 지원서의 마감일은 2010년 8월 31일 오후 5시이다. 유럽의 과학자들은 PRACE26)를 통해서도 Jugene의 컴퓨팅 시간 할당 요청을 지원 할 수 있다. 첫 번째 PRACE의 지원서 마감일은 2010년 8월 15일이고 2010년 11월 1일 부터 시작된다.  NIC를 통한 슈퍼컴퓨터 자원 할당 요청 앞서 언급했듯이, NIC에게 할당 가능한 슈퍼컴퓨터 사용을 위한 프로젝트 지원서 는 분야에 상관없이 개인의 연구 분야에 적합한 지식을 지닌 자격이 있는 과학자라면 누구 나 제출 가능하다. NIC의 Scientific Council은 동료 평가를 통해 프로젝트 제안서를 검토 하고 컴퓨팅 자원을 할당한다. 현재 약 650명의 슈퍼컴퓨터 사용자들, 그리고 그들 중 약 450명이 100개의 NIC 프로젝트에 속해 있다. 자원은 국제적인 검토 절차 테두리 안의 프 로젝트들에게 지급된다. 자원을 할당받기 위해서는 각 프로젝트는 다음의 기준을 반드시 갖추어야한다: - 과학적 우수성 - 확실한 과학적 목적과 그 목적 성취를 위해 필요한 명확한 단계 확립 - 다수의 프로세서로까지의 확장성과 최소 4096 processor cores까지의 확장성을 입증할 수 있는 임시 연구와 입증 - 총 필요 CPU 시간, 프로그램 실행 시간, 그리고 필요한 racks의 수에 대한 자세한 입증 지원 마감일은 JSC의 경우와 같으며, 요청 할 수 있는 최소의 단위는 1 rack month이다. 26) The Partnership for Advanced Computing in Europe, PRACE, is a unique persistent

pan-European Research Infrastructure for High Performance Computing (HPC). PRACE is a project funded in part by the EU’s 7th Framework Programme.

(33)

라. 프로그램

중앙 컴퓨팅 시스템의 시간과 자원은 각자 다른 지원 절차를 통해 다양한 사용자 커뮤니티에 제공하고 있지만, 각 경우에 따른 유/무상 지원 여부나 특정 프로그램은 따로 명시되어 있지 않다. 하지만 중앙 컴퓨팅 시스템 및 서비스에 관한 할당과 청구서 발부 절 차는 따로 명시되어 있기 때문에, 경우에 따라 일부는 유상 또는 무상으로 처리하는 걸로 간주된다. 다음은 FZJ가 슈퍼컴퓨터 자원을 제공하는 경우이다: 1. FZJ의 조직 단체를 위한 자원 ("Institute quotas") FS에 의해 공동으로 조정되는 연구개발 계획 범위 안에서 자원이 제공된다. 쿼터 는 가능한 수용량을 기반으로 매년 지급된다. 큰 규모의 쿼터 (100,000 clearing unit이상) 는 월간 쿼터로써 지급되며, 작은 규모는 연간 쿼터로써 지급된다. 이 쿼터의 한도를 넘어 선 경우에는 FS가 비축해 둔 쿼터를 추가로 받도록 지원할 수 있다. 2. 다양한 기업체들을 위한 자원 각 기업의 기술적/법적인 잠재력을 감안한 범위 내에서 자원이 제공된다. 3. 교육과 연수 목적을 위한 자원

1) Guest Student Programme on Scientific Computing

학생들에게 컴퓨팅에 대한 친근감을 키울 수 있는 기회를 제공하기 위해 JSC에서 는 2010년 여름 방학동안 학생들을 초대하는 프로그램을 제공한다. 이 프로그램은 과학, 공 학, 정보 과학 그리고 수학 계열의 학생들에게 제공되며, 2010년 8월 2일부터 10월 8일까 지 10주 동안 열린다. 이 프로그램을 통해 학생들은 Jugene을 포함한 JSC의 슈퍼컴퓨터를 사용할 수 있다. 이외에도 JSC에서는 여러 가지 교육 및 연수 프로그램을 제공하고 있으나 슈퍼컴퓨터를 활용하는 프로그램은 이 프로그램뿐이다.

2) German Research School

German Reserach School은 FZJ와 협력하여 슈퍼컴퓨터와 시뮬레이션에 관한 다 양한 수준의 연수를 제공한다. The German Research School for Simulation Science는 FZJ 캠퍼스에 기반을 둘 생각이며, 이 교육기관의 과학자들과 학생들은 JSC의 고성능 컴퓨 팅 자원에 접근 가능한 특권을 제공받는다. 이 프로그램을 통해 젊은 과학자들이 컴퓨터 시 뮬레이션, 자연과학과 공학에 깊은 지식을 얻을 수 있도록 돕는다.

(34)

기관명 시스템명 이론 성능 (Tflops) CPU 수 (개) 사용자 지원체계 NCSA Cobalt 8.2 1024 무상 Lincoln 47.5 -Abe 89.47 -SDSC

TeraGrid Cluster 3.1 524 일부 무상 (SAC)

일부 유상 (TAPP) Dash 5.2 512 PSC Pople 1.5 768 일부 무상 (CAP, NMCMCP, EOT) Salk - 144 Warhol - 64 Codon - 20 이 보고서는 슈퍼컴퓨터 사용자지원프로그램을 개선하기 위하여 해외 슈퍼 컴퓨팅 선도 연구기관의 슈퍼컴퓨터 운영과 사용자 지원 체계를 조사하고 사용자지 원프로그램의 특징을 파악하여 비교하는 것을 목적으로 하여 작성되었으며, 보고서 에 이용된 대부분의 자료를 인터넷을 통해 수집하였다. 해외 슈퍼컴퓨팅 선도 연구기관에서 운영되고 있는 슈퍼컴퓨터와 사용자지 원체계를 조사한 결과를 크게 미국, 아시아, 유럽 지역으로 나누고 각 지역별로 다 시 해당지역의 기관들 간의 특징을 비교하였다. 미국의 경우, 조사 대상 기관인 NCSA, SDSC, PSC 모두 정부 주도하에 주 로 NSF로부터 지원을 받고 있으며, TeraGrid와 협력하여 슈퍼컴퓨터를 미국 내 학계 및 연구 단체가 사용할 수 있도록 지원하는 프로그램을 갖추고 있다. <표12> 미국지역 기관별 슈퍼컴퓨터 및 사용자지원체계 현황

* SAC: Strategic Applications Collaborations/Strategic Community Collaborations program

TAPP: Triton Affiliates and Partners Program CAP: Corporate Affiliates Program

(35)

항목 신규 착수 및 교육 목적 할당 연구용 할당 (TRAC) 요구 할당량 최대 계산 자원 요구량 30,000 – 무제한 SUs • 대부분의 시스템은 30,000 SUs까지 제 한이 있으나 200,000 SUs까지도 가능 함. (자세한 사항은 TeraGrid 홈페이지 의 Resource Catalog 참조.) • 여러 계산 자원의 총합이 200,000 SUs 를 넘지 않아야 함. • 디스크 저장 용량: 5 TB • Tape 저장 용량: 25 TB 마감일 없음 제안서 제출 시작 제안서 제출 마감 12월 15일 3월 15일 6월 15일 9월 15일 1월 15일 4월 15일 7월 15일 10월 15일 할당 시작일 요청 후 2주 4월 1일 7월 1일 10월 1일 1월 1일 사후 심사 간격 1주일 이내 간격 매 분기 (3개월 간격) 대표적 사용자 수업 등 교육 목적 또는 단 시간을 필요로 할 경우 연구 과제 목적 미국의 TeraGrid 프로젝트는 NSF가 시작하여 지속적으로 후원하고 있으 며, 앞에서 언급된 NCSA, SDSC, PSC를 포함한 미국 각 지 11개의 파트너 기관들 과 협력해 고성능 컴퓨터 및 데이터 자료, 최첨단 연구 장비를 제공하고 있다. 현재 TeraGrid 자원은 2 Petaflops의 계산 능력과 50 Petabyte 이상의 온라인 및 기록 저장 공간을 고성능 네트워크를 이용한 신속한 접근과 회수를 가능하게 하고 있다. TeraGrid는 공개 과학적 연구를 위한 세계에서 가장 크고 포괄적인 분산 사이버인 프라이다. <표13>은 TeraGrid의 자원 할당의 종류, 제한 및 마감일을 연구 목적에 따라 비교, 정리 한 것이다.

<표13> TeraGrid: 할당의 종류, 제한 및 마감일

(36)

<표14>는 TeraGrid의 자원 제공 기관인 NCSA, SDSC, PSC의 사용자 무 상지원프로그램의 종류와 과제 선정시기, 과제관리체제, 자원제공기간 등을 비교, 정리 한 것이다. 무상지원프로그램의 종류는 NCSA가 가장 다양하며, 세 기관 모두 과제관리에 TeraGrid POPS를 이용하고 소규모 과제는 연중수시 접수한다는 공통 점을 가지고 있다. <표14> 미국 지역 기관 전체적인 구조 비교

(37)

국가명 기관명 시스템명 이론 성능 CPU 수 (개) 사용자 지원체계 중국 SSC Magic Cube 230 TF 무상 Dawing 4000A 10.2 TF 2128 SW-1 348 GF 480 일본 JAMSTEC SGI Altix 4700 15.384 TF 1280 일부 유상, 일부 무상 NEC SX-8R/24M3 844.8 GF 24 국가명 기관명 시스템명 이론 성능 CPU 수 (개) 사용자 지원체계

영국 ECMWF IBM POWER6

(38)
(39)
(40)
(41)
(42)

(43)
(44)
(45)
(46)
(47)
(48)
(49)
(50)
(51)

(52)
(53)
(54)
(55)
(56)
(57)
(58)

(59)
(60)

(61)
(62)

(63)
(64)

참조

관련 문서

▶ Should you not be able to submit the document(s) (Apostille, academic certificate by Chinese Ministry of Education, certificate by a Korean consulate, bank statement with

Average of the indexed values of the following data: (1) Total value of the indexed score for disability-adjusted life years (the number of years lost due to illness,

1 John Owen, Justification by Faith Alone, in The Works of John Owen, ed. John Bolt, trans. Scott Clark, &#34;Do This and Live: Christ's Active Obedience as the

This study selected Korea University for South Korean university and the University of Pennsylvania and the University of Chicago, US for foreign

A and E, In control group, a small amount of new bone was observed at the margin of bone defect (40×); B and F, In experimental group 1, a large amount of new bone was formed

Opinions exchanged at the WTO Working Group on the Interaction between Trade and Competition Policy show that a multilateral framework is necessary to deal

coordinated Sr(1), 8-foldcoordinated Sr(2), and 4-fold-coordinated Al 3+ cation sites in

웹 표준을 지원하는 플랫폼에서 큰 수정없이 실행 가능함 패키징을 통해 다양한 기기를 위한 앱을 작성할 수 있음 네이티브 앱과