• 검색 결과가 없습니다.

입자검출기 사진 분석과 컴퓨터의 등장

1.정의와 개념

1. 입자검출기 사진 분석과 컴퓨터의 등장

1960년대까지 입자 관측에서 가장 중요한 검출기는 거품상자였다.

거품상자에 입자가 들어오면 설치된 카메라로 여러 차례 촬영하여 아 래와 같은 사진을 얻는다. 이 사진은 분석실로 옮겨져 훈련 받은 사람 들이 자와 각도기를 들고 사진에 나온 궤적의 길이, 곡률등을 측정한 다. 처음에는 물리학자가 이런 작업을 직접 하기도 하였으나 분석해야 할 사진의 양이 많아짐에 따라 따로 사람을 고용하였다. 1964 년도에 브룩헤이븐 팀은 오메가 입자를 찾는 실험에서 그림과 같은 사진을 약 10만장 정도 분석하였다고 알려져 있다. 사진이 분석되면 얻어진 데이 터로부터 물리학자들은 입자의 전하, 운동량, 질량등을 정하고 물리 현 상을 재구성하였다. 이후 검출기는 자동화 되고 컴퓨터를 이용한 분석 이 일반화 되었다. 현대의 가속기 실험은 컴퓨터 없이 진행할 수 없다.

데이터의 양이 워낙 방대해 옛날 방법으로 기록하거나 분석하는 것이 불가능하다. 특히, 오늘날 관찰하는 입자에는 수명이 극히 짧은 것들이 많다. 그래서 수 마이크로미터 범위에서 복잡한 현상을 일으키고 붕괴 하므로 매우 정교한 검출기가 필수적이며 검출기에서 나온 데이터를 빨리 처리하기 위해서 강력한 계산 능력을 갖는 컴퓨터가 중요하다.

LHC 프로젝트가 본격적으로 시작되면서 컴퓨터의 계산능력은 차원 이 다른 문제가 되었다. LHC에서는 각 검출기에서 양성자 빔 뭉치가 1초당 2500만번 충돌한다. 빔뭉치가 한번 충돌할 때 양성자-양성자 충 돌은 약 35회 일어나므로 1초에 8억 회 이상의 양성자-양성자 충돌이

일어나는 것이다. 양성자가 충돌하면 수백 개의 입자가 튀어나와 검출 기속으로 들어가며 각각의 입자들은 검출기 속에 지나간 흔적과 에너 지를 남긴다. 검출기에 남은 입자의 흔적은 전기적 신호로 바뀌어 기록 된다.

[그림 6-4-1] 그리드컴퓨팅의 적용분야

한 번의 충돌을 기록하는데 2메가바이트의 용량이 필요하고 LHC가 대략 1년에 10개월 가동한다면 회의 충돌하게 된다. 따라서 데이터 총 량은 40 조 기가바이트(=400억 테라바이트)이다. 이 정도의 데이터를 10만원 정도하는 1 테라바이트 하드 디스크에 저장한다면 400 억개의 하드디스크가 필요하다. 전 지구 자원을 끌어 모아 400억개의 하드디 스크를 만든다는 것은 불가능에 가까운 일이 된다. 이런 막대한 데이터 는 다 기록할 수 없으므로 처음부터 기록할 만한 의미있는 데이터만을 골라내어(triggering) 기록한다. 이렇게 기록되는 데이터는 전체 반응 의 0.001%에 불과하지만 ATLAS의 경우만 해도 약 3,000∼4,000테라 바이트의 데이터가 산출된다. 여기에 이를 가공한 데이터와 몬테카를

로 시뮬레이션을 통해 만들어낸 데이터를 합하면 1년이면 약 10페타바 이트의 데이터가 생산된다. 흔히 쓰는 CD에 생산된 데이터를 모두 담 아 CD를 한 줄로 쌓아올리면 CD 한 장의 두께를 1mm라고 했을 때 15,000m의 CD탑이 만들어 질 것이다. 데이터의 양이 이 정도가 되면 저장하는 것도 문제이지만 데이터를 가공하면서 분석하는 것이 더 심 각한 문제가 된다. 이는 연구원들의 개인 컴퓨터가 슈퍼 컴퓨터라 하더 라도 데이터 처리는 불가능하게 된다. 이런 정도의 대규모 데이터를 다 루는 방법은 그리드 컴퓨팅을 사용하는 것 밖에 없다.

CERN에서는 그리드 컴퓨팅 개발에도 최선을 다해 왔으며 2002년 부터는 WLCG(World-wide LHC Computing Grid) 라는 이름으로 전 세계에 걸쳐 그리드 컴퓨터 망을 구축해 왔다. WLCG 프로젝트는 전세계 그리드 인프라와 컴퓨터 센터를 연결하는 글로벌 협력으로 세 계 최대의 컴퓨팅 그리드이다. 매년 CERN에서 LHC에 의해 생성된 15 페타바이트의 데이터를 저장, 배포 및 분석 글로벌 컴퓨팅 자원을 제공하기 위해 전 세계 수백대의 컴퓨터 및 스토리지 시스템을 통합하 여 구축함으로서 세계 최대의 그리드 컴퓨팅 환경을 구축할 수 있었다.

WLCG는 실시 간으로 LHC 데이터에 액세스하고 처리하는 할 수 있 도록 하기 위하여 35개국 이상, 140개 컴퓨팅 센터로 구성하여 전 세계 8,000명 이상의 물리학자들이 그들의 위치에 상관없이 함께 동시에 연 구에 참여하는 것을 가능하게 했다. 또한 CERN은 유럽의 그리드 인프 라를 구축하고 그 운영을 위해 애플리케이션의 광범위한 영역 검색이 가능한 EGEE(Enabling Grids for E-sciencE) 를 사용하는 범 유럽 컨 소시엄을 주도하고 있다. 유럽 연합에서 돈을 대고 CERN에서 기획하

여 2004년 4월부터 시작된 이 프로젝트는 과학 연구에 사용될 세계적 규모의 컴퓨터 그리드의 기반 구조를 건설하는 것을 목적으로 하고 있 다. 그리드 인프라는 생물학, 의학 및 지질학적 응용 프로그램과 같은 분야로 입자 물리학을 넘어 그 영역을 넓혀가고 있다.

LHC 실험의 데이터는 4 단계로 나누어 저장된다. 원본 데이터는 CERN의 컴퓨터 센터에 보관되는데 이것을 Tier-0 센터라고 한다.

LHC의 모든 데이터는 중앙 허브를 통과하지만, 그것은 전체 컴퓨팅 용량의 20 % 미만이다. Tier-0에서는 LHC 에서 생산된 첫 번째 데이 터는 데이터 처리 시스템으로 걸러서 데이터를 저장한 후 Tier-1에 배 포하고 하위 계층에서 처리된 데이터를 안전하게 보관하는 역할을 한 다. LHC에서 생산되는 최초의 데이터를 분석하는 것은 매우 힘든 일 인데 전용 알고리즘을 사용하여 두 단계를 거쳐 데이터를 처리하는 일 명 ‘Trigger’ 를 통해 엄청난 양의 ‘ 노이즈’를 줄이고, 새로운 물리학의 발견을 가져올 수 있는 가장 중요한 데이터를 선정하여 하위단계로 보 낸다. 무의미한 데이터만 버려야 하므로 가장 중요한 데이터만 선정하 는 기술에 초점을 맞추어 지속적으로 개발하고 있다. Tier-0에서 한 차 례 가공된 데이터는 충분한 저장 용량을 갖추고 24시간 접근이 가능한 몇몇 Tier-1 센터에 분배된다. Tier-1 센터에서는 각 연구 팀이 관리하 는 Tier-2 센터로 데이터를 배분하며, Tier-2 센터에서는 각 대학이나 연구소 단위에서 이용하는 컴퓨터인 Tier-3센터에 데이터를 재분배한 다. Tier-3는 개인PC로 구성할 수 있고 각 지역 컴퓨팅 리소스를 통해 접속할 수 있고 WLCG 와 Tier-3 자원 사이의 공식적인 계약관계는 따로 없다 [Tier-2 까지는 공식적인 계약을 체결함]. 우리 나라에는

CMS 그룹의 Tier-2가 경북대에, ALICE를 위한 Tier-2가 한국과학기 술정보연구원(KISTI)에 설치되어 운영중이다. CMS 그룹의 경우 Tier-1센터는 7개국에, Tier-2 센터는 우리나라를 포함 22개국에 구축 되어 있다. 데이터가 분산되어 저장되고 처리되므로 Tier 센터들 간에 대용량 자료가 에러 없이 안정되게 전송되고 보안이 유지되어야 한다.

[참고자료]

이강영, LHC,현대 물리학의 최전선(사이언스 북스, 2011).

이종필, 신의 입자를 찾아서(마티, 2008).

http://blog.naver.com/75toki/60001005364.

한국 정보 통신 기술협회, 2008 년도 정보통신표준화전략포럼 최종연구보고 서(2008).

Open Grid Forum Documents Series,

http://www.ogf.org/gf/docs/?final, OGF