• 검색 결과가 없습니다.

A Study on Automatic Precision Landing for Small UAV’s Industrial Application

N/A
N/A
Protected

Academic year: 2022

Share "A Study on Automatic Precision Landing for Small UAV’s Industrial Application"

Copied!
10
0
0

로드 중.... (전체 텍스트 보기)

전체 글

(1)

Received 2017-05-29 Revised 2017-06-05 Accepted 2017-06-20 Published 2017-06-30

*Corresponding author : Seok-Wun Ha (swha0197@gmail.com)

소형 UAV의 산업 응용을 위한 자동 정밀 착륙에 관한 연구

김종우

1

, 하석운

2*

, 문용호

2

1(주)픽소니어, 2경상대학교 항공우주및소프트웨어공학과

A Study on Automatic Precision Landing for Small UAV’s Industrial Application

Jong-Woo Kim

1

, Seok-Wun Ha

2*

, Yong-Ho Moon

2

1Pixoneer

2ERI, Dept. of Aerospace & Software Eng., Gyeongsang National University

요 약 최근 군수 산업, 해양수산업, 농업, 공업, 서비스 등의 거의 모든 산업 분야에서는 소형 무인항공기를 사람이 접근하기 힘들거나 CCTV가 설치되지 않은 영역에 대해 공중 촬영이나 근접 비행 등에 활용하고 있다. 또한 소형 무인기 촬영 정보를 토대로 감시나 통제, 또는 관리를 효율적으로 수행하기 위한 응용 연구가 활발하게 이루어지고 있다. 일련의 설정된 작업을 부여하고 자동으로 그 임무를 수행하도록 하는 임무 기반 형태의 작업을 수행하기 위해 서는 소형 무인항공기가 안정적으로 비행해야 할 뿐만 아니라 일정시간마다 에너지를 충전할 수 있어야 하며, 또한 무인항공기가 임무 종료 후에는 특정 지점에 자동으로 그리고 정밀하게 착륙해야 할 필요가 있다. 이를 위해서는 소형 무인항공기 자체에서 촬영하는 동영상으로부터 착륙 지점에 설치되어 있는 마커를 탐지하고 인식하는 과정을 통해 착륙을 유도하는 자동 정밀 착륙 방법이 필요하며, 본 논문에서는 저가의 범용 소형 무인비행체를 사용함에 있어서 고 사양을 요구하는 다른 여러 가지 인식 기법들을 사용하지 않고 단순한 탬플릿 매칭 기법을 적용하여서도 정밀하고 안정된 자동 착륙이 가능함을 나타내고, 시뮬레이션과 실제 실험을 통해서 수 센티미터 이내의 오차를 보 이는 정밀 착륙이 가능하며, 이는 산업 현장에 유용하게 활용될 수 있음을 보이고자 한다.

키워드 : 소형 무인항공기, 산업 응용, 탬플릿, 영상 정합, 자동 정밀 착륙

Abstract In almost industries, such as the logistics industry, marine fisheries, agriculture, industry, and services, small unmanned aerial vehicles are used for aerial photographing or closing flight in areas where human access is difficult or CCTV is not installed. Also, based on the information of small unmanned aerial photographing, application research is actively carried out to efficiently perform surveillance, control, or management. In order to carry out tasks in a mission-based manner in which the set tasks are assigned and the tasks are automatically performed, the small unmanned aerial vehicles must not only fly steadily but also be able to charge the energy periodically, In addition, the unmanned aircraft need to land automatically and precisely at certain points after the end of the mission. In order to accomplish this, an automatic precision landing method that leads landing by continuously detecting and recognizing a marker located at a landing point from a video shot of a small UAV is required. In this paper, it is shown that accurate and stable automatic landing is possible even if simple template matching technique is applied without using various recognition methods that require high specification in using low cost general purpose small unmanned aerial vehicle. Through simulation and actual experiments, the results show that the proposed method will be made good use of industrial fields .

Key Words : Small UAV, Industrial Application, Template, Image Matching, Automatic Precision Landing

(2)

1. 서론

최근 이착륙 시에 공간의 제약을 받지 않고 정확한 수 직 이착륙과 정지 비행을 수행할 수 있는 무인 비행체에 대한 연구가 활발해지고 있다[1,2, 13-15]. 또한 작은 크 기의 무인 비행체는 기구적으로 단순하고 시스템 모델링 및 제어기 구현이 유리한 장점이 있어 무인비행체 플랫 폼에 관한 연구가 다양한 방면으로 진행되고 있다[3]. 최 근에는 감시나 보안, 그리고 물류나 유통 분야에서 매우 활발하게 이용되고 있으며 자동 이착륙은 무인 비행체 운용의 핵심적인 기술 요소가 되고 있다[4]. 특히 영상기 반 자동 착륙 기술은 최근 들어 큰 관심사가 되었으며, 실질적으로 상당한 성과를 거둔 것으로 파악된다[5].

Fitzgerald의 연구에서는 신경망을 사용하여 무인기의 강제 착륙을 위한 안전 착륙지대 탐색에 중점을 두었으 며 실제 온 보드 시스템을 구축하여 착륙지점을 추출하 는 결과를 보여주고 있다[6]. 영상을 이용한 자동 착륙 연 구의 장점은 육안을 통해 직관적으로 실험 결과를 확인 할 수 있다는 점에 있다.

본 논문에서는 기존의 GPS기반의 자동 착륙의 한계 점을 보완하기 위해 영상정합을 기반으로 하는 소형 무 인비행체의 정밀 자동 착륙 알고리듬을 제안한다. 제안 알고리듬은 착륙하고자 하는 목표지점에 마커를 설치하 고, 소형 무인 비행체에 장착되어 있는 하방 카메라로부 터 영상을 습득한 후에 정합과정을 거쳐 목표지점에 비 행체를 정밀 착륙시키는 비행절차를 가진다. 2장에서는 상용화된 소형 무인비행체의 착륙 방식에 대한 내용과 실험에 사용하고자 하는 상용 GPS 센서의 오차범위를 측정하여 정밀도를 분석하였다. 3장에서는 제안하는 알 고리듬의 비행 프로세스에 대한 설명과 사용된 영상정합 기법에 대해 나타낸다. 4장에서는 구현한 알고리듬을 검 증하기 위한 실험 환경 구성을 나타내고, 5장에서는 실험 환경을 기반으로 시뮬레이션 실험과 실제 비행 실험의 결과를 나타내며, 6장에서 결론을 보인다.

2. 기존의 자동 착륙 기술

2.1 GPS 기반 기술

무인 항공기에 적용되어 온 자동 착륙 기술은 초기에 는 GPS 센서로 부터 제공되는 위·경도데이터로부터 계

산된 위치정보를 목표 지점으로 설정하고 비행체를 유도 하여 착륙시키는 방식을 적용하여 왔다[1,2]. GPS 센서의 경우 소수점 6자리까지 값을 처리하는데 가장 작은 단위 의 값을 토대로 물리적 거리를 환산하여도 정밀한 값을 얻기가 어렵고, 지형, 건물, 날씨 등과 같은 환경적인 요 소로 인한 위치 오차가 발생하기도 한다. GPS 센서 기반 의 자동 착륙 정확도 평가에 따르면 일반적으로 알려진 상용 GPS의 오차범위는 1미터에서 50미터까지의 반경이 며 실제 실험을 통해 반지름이 평균 1.4m의 정도의 오차 를 나타내고 있어 착륙 비행 정확도를 기대하기 어렵다 고 언급하고 있다[3]. 최근에는 보다 정밀하고 안전한 자 동 착륙을 위해 GPS 센서 외에 기압, 적외선, 초음파 등 과 같은 센서들을 추가적으로 설치하여 멀티 센서를 적 용하여 착륙 정밀도를 높이는 연구가 진행된 사례가 있 다[5]. 멀티 센서 기반의 자동 착륙 비행은 안정성은 높일 수 있었으나 위치적인 정밀도는 여전히 GPS 센서에 의 존하는 것으로 기존 방식과 큰 차이를 확인 할 수가 없다.

본 논문에서는 기존 자동 착륙 방식인 GPS 기반의 착 륙 방식의 위치 정확도를 알아보기 위해서 저가의 상업용 무인 비행체인 Parrot 사의 AR Drone 2.0을 사용하였다.

Fig. 1은 GPS 위성으로부터 위경도 데이터를 수신하여 그 정밀도를 측정해 보기 위해 선정한 실험 장소들이다.

왼편은 숲과 인접한 장소이고 오른편은 확 트인 운동장이 다. 그리고 Fig. 2는 두 장소에서 시간대 별로 6개의 측정 좌표와 그 때에 수신된 측위 위성의 개수를 보여준다.

측정기준점(×점)과 관측점(O점) 사이의 거리를 측정 하기 위해서 Haversine 공식을 사용하였다[9]. Haversine 식은 구체에서 임의의 두 지점의 경도와 위도 값을 토대 로 그 두 지점 사이의 거리를 계산하는 식으로 GPS 응용 분야에서 주로 활용되고 있다. 식 (1)에서 d는 두 위치 좌표 사이에 대한 거리, r은 구의 반지름, φ와 λ는 각각 위도 좌표와 경도 좌표의 라디안 각도를 나타낸다.

(1)

(3)

Fig. 1. Locations Selected to Measure Latitude and Longitude Data from GPS

Fig. 2. Numbers of Location Data and Satellites Earned from GPS Receiver

Table 1. Average Error Distances Measured from Two Locations

position time reference coordinates

measured coordinates

num ber

of satell

ites avg.

error dista nce

Near Woods

10∼11

35.155746 128.097200

35.157800

128.097140 6 7

14∼15 35.158196

128.097102 8 12

19∼20 35.155823

128.097055 9 16

play_

ground 10∼11

35.154601 128.105056

35.154633

128.105063 4 4

14∼15 35.154661

128.105057 6 7

19∼20 35.154633

128.105041 11 4

측정 좌표와 기준 좌표 사이의 평균 오차 거리를 산출 하여 Table 1에 나타내었다. 측정 결과를 통해 기존의 GPS 기반의 자동 착륙 방식에서 불안정성을 확인할 수 있다. 첫째, 환경적인 요인이 큰 숲 근처와 운동장에서의 평균 오차거리를 보았을 때 환경적인 요인이 적은 운동

장에서 보다 정밀한 위치 정보의 측정이 가능하다는 것 을 보여준다. 이는 환경적인 요인으로 인해 착륙 장소 선 정에 제약이 있을 수 있다는 것을 의미하며, 측위 위성 수가 보장되더라도 측정되는 위치의 정밀도에 한계가 존 재하는 것으로 짐작할 수 있다. 위의 실험 결과를 토대로 비록 측정에 사용된 소형 무인이동체가 저가에 비례하는 성능을 가지는 것이라 하더라도 GPS 데이터를 사용하는 자동 착륙에는 근본적으로 상당한 오차를 수반하는 것으 로 볼 수 있다.

2.2 영상 처리 기반 기술

GPS 기반 자동 착륙 방법의 위치 오차 문제를 개선하 기 위해서 최근에는 영상 인식 기법을 기반으로 하는 자 동 착륙에 관한 연구가 중요한 관심사가 되었으며, 실제 로 자동 이착륙을 실현하는데 있어 상당한 성과를 거두 고 있다[10,11]. Fitzgerald의 연구에서는 신경망을 사용 하여 무인항공기의 강제 착륙을 위한 안전 착륙지대 탐 색에 중점을 두었으며 실제 처리가 무인항공기 자체에 탑재되어 있는 프로세서 상에서 이루어지도록 시스템을 구현함으로써 실시간으로 착륙지점을 추출하는 결과를 보여주고 있다[6].

영상은 산업 전반에 걸쳐서 인식이나 보안에 이용되 고 있다[7,8]. 영상을 이용하는 자동 착륙에 관한 연구는 육안을 통해 직관적으로 실험을 확인할 수 있고, 또한 카 메라 외에는 추가적인 하드웨어 설치 없이 소프트웨어만 으로 처리할 수 있는 장점이 있다. SIFT나 SURF와 같은 영상내의 불변 특징 추출 알고리즘을 이용하면 고도의 정밀 착륙이 가능하지만 실시간 처리에 따른 고가의 하 드웨어 사양을 요구하는 단점이 있다[12]. 본 연구에서는 저 사양의 상용 UAV를 산업 현장에 유용하게 사용하려 는 목적에 상응하여 단순한 영상 템플레이트 매칭을 적 용하여서도 신뢰할 만한 수준의 정밀도를 확보하는데 주 안점을 두려고 한다.

3. 제안하는 자동 착륙 기술

3.1 템플릿 정합 알고리즘

무인 비행체를 응용함에 있어 물체 인식 기술은 필수 적으로 탑재되어할 요소 중 하나가 되고 있다. 물체 인식 은 일반적으로 카메라로부터 입력된 영상 또는 비디오

(4)

시퀀스로부터 원하는 물체가 어디에 있는지 찾아내는 작 업으로써 최근의 대표적인 기법에는 SIFT와 SURF가 있 다. 이러한 기법은 특징점 기반의 물체 추출 기법으로 물 체의 크기와 방향에 적응적으로 인식할 수 있는 장점이 있다. 이와는 달리 템플릿 정합(Template Matching) 기 법은 입력 영상에 대해서 템플릿 영상과 SAD(Sum of Absolute Differences) 연산을 수행하여 입력 영상 내에 서 가장 유사한 영역을 찾아내는 정합 기법으로써 적절 한 하드웨어 사양이면 비교적 손쉽게 실현할 수 있는 방 법이다. Fig. 3은 템플릿 정합 기법의 처리 모양과 흐름도 를 나타내며, 처리과정은 다음과 같다. 여기서 템플릿 영 상으로는 무인비행체가 착륙할 지상의 특정 지점에 놓여 있는 마커를 사용한다.

(a)

(b)

Fig. 3. (a) Process View and (b) Flow Diagram, of Template Matching

• 카메라로부터 영상을 입력 받는다.

• 입력 영상의 한 픽셀에 대해 템플릿 영상과의 밝기 차 이 값의 합을 계산한다(SAD 연산)

• SAD 값이 특정 임계값보다 작거나 같으면 두 영상이 서로 일치하는 것으로 판단하고 SAD 값을 저장한다.

그렇지 않으면 다음 픽셀로 이동한다.

• 입력 영상의 모든 픽셀에 대해 앞의 SAD 연산과 저장 과정을 반복 처리한다.

• 영상 전체에 대해 정합조건을 만족하는 모든 SAD 값 에 대해 최솟값을 가지는 경우를 최적의 정합으로 결 정한다.

• 영상 전체에 대해 정합조건이 만족되지 않으면 해당 영상에는 템플릿 정합 지점이 없는 것으로 판단한다.

• 동영상의 경우 새로운 영상에 대해 반복한다.

식 (3)과 식 (4)는 템플릿 매칭을 계산하는 SAD 연산 식과  연산식이다.

 

  



  

        (3)

    (4)

여기서 와 는 입력 영상에서 연산을 수행하게 될 영상 좌표를 의미한다. 그리고 , , , 는 해당 입력 영상과 템플릿 영상의 영상 밝기 값을 나타낸다.

3.2 자동 정밀 착륙 기법

제안하는 자동 정밀 착륙 기법은 두 단계의 비행 과정 으로 구성된다. 무인비행체가 마커 중심으로 이동하는 보정비행과 마커 중심에서 고도를 낮추는 착륙비행이다.

보정비행과 착륙비행은 연속으로 행해지며 그 과정은 다 음과 같다. Fig. 4에 블록도로 나타내었다.

• 하향 카메라로부터 영상을 입력받는다.

• 영상의 마지막 픽셀까지 영상과 템플릿 사이에 정합 여부를 판별한다.

• 마지막 픽셀까지 정합이 일어나지 않으면 새로운 영 상을 입력받는다.

• 정합이 일어나고 정합영역이 착륙영역 내에 존재하면 하향 착륙을 실행한다. 정합이 일어나도 착륙영역 내 에 존재하지 않으면 정합영상의 중심 방향으로 무인 비행체를 이동시킨다.

(5)

• 하향착륙이 진행되고 고도가 0.7m 이하로 떨어지면 고도 0.4m까지 보정과정 없이 바로 하강한다.

• 고도가 0.4m가 되면 모터 출력을 끄고 지상까지 자동 착륙한다.

Fig. 4. Flow Diagram of the Proposed Automatic Landing

Fig. 5는 제안하는 자동 정밀 착륙 알고리듬의 전체적 인 비행 프로세스를 그림으로 나타낸 것이다. 무인 비행 체는 2m 이상의 고도에서 착륙 지점에 설치된 마커가 카 메라로 인식될 수 있는 범위에서 자동 정밀 착륙을 시도 하게 된다. 본 논문에 시험 비행으로 고도 2m를 선정한 이유는 무인 비행체에 설치된 카메라 사양을 고려하여 선정된 높이이다. 무인 비행체에 탑재된 카메라 영상은 640×480의 해상도를 가진다. 더 높은 고도에서 영상을 습 득할 경우 더 넓은 반경에서 착지 비행을 시험할 수 있지 만 낮은 해상도로 인해 영상 정합 과정에서 마커를 인식 하지 못하는 경우가 발생할 수 있다. 실험에 사용된 카메 라보다 높은 해상도의 카메라를 탑재한다면 더 높은 고 도에서 착륙 제어를 수행할 수 있다.

Fig. 5. Flight Process of the Proposed Automatic Landing

Fig. 5는 앞의 처리 과정을 블록도로 나타낸 것이다.

그림에서 지상 제어 시스템은 무인 비행체가 착지할 때 까지 지형 영상을 수신 받는다. 수신 받은 영상은 영상 정합을 수행하고 무인 비행체로 이동 및 하강에 관한 유 도 제어 명령을 전송한다. 이러한 과정을 반복적으로 수 행하면서 목표 지점인 마커 중심으로 고도가 0.7m가 될 때까지 이동 및 하강 비행하게 된다.

고도를 0.7m로 설정하는 이유는 고조가 0.7m가 되면 지상에서 촬영된 지형 영상에서 템플릿 영상인 마커가 차지하는 영역이 전체 영상의 80%를 차지하게 되어 이 때부터는 보정 비행을 수행할 때 기체의 이동이 거의 발 생하지 않기 때문이다. 이러한 특성 때문에 0.7m부터는 실질적으로 지상 착륙하기에 가장 적합한 환경이 이루어 지는 셈이다. 0.7m 이하부터 0.4m까지는 템플릿의 크기 가 커서 오히려 영상 정합 시 부정합이 발생하여 목표지 점으로부터 벗어날 우려가 있으므로 0.4m까지는 해당 위 치에서 보정 비행 없이 바로 하강하게 한다. 0.4m에 도달 한 무인 비행체는 모터 출력을 끄고 지상으로 착지한다.

모터 출력을 끄더라도 수초 동안의 여분의 프로펠러 회 전에 의해 0.4m 이하에서의 착륙에 따른 반동 현상은 나 타나지 않는다.

(6)

Fig. 6. Control Platform for Simulation Flight Test

4. 시뮬레이션 및 실제 실험 환경

4.1 실험 환경 구성

제안하는 템플릿 정합에 의한 자동 착륙 알고리즘을 실험하고 검증하기 위해서 시뮬레이션 비행 시험 환경과 실제 비행 시험 환경의 두 가지 환경을 구축하였다.

4.1.1 비행 제어 컴퓨터

자동 정밀 착륙 시험에 사용된 무인 비행체의 FCC(Flight Control Computer)는 최근 연구나 산업 현장 에서 소형 무인비행체 제작에 가장 널리 사용되고 있는 3D Robotics와 ArduPilot가 공동으로 설계한 PIXHAWK 를 사용하였다. FCC 탑재하는 펌웨어는 공개된 소프트 웨어를 사용하므로 하드웨어만 준비되어 있다면 추가적 인 비용이 발생하지 않으며 개발자가 수정 또는 기능을 추가하여 사용할 수 있는 장점이 있다. 자세와 고도를 유 지를 위해 3D ACC/Gyro/MAG/Baro 센서를 내장하고 있고 추가적인 센서 탑재를 위한 시리얼 포트도 제공하 고 있다. 본 논문에서는 기본적으로 무인 비행체의 위치 유지 비행이 요구되므로 Optical Flow 센서도 함께 탑재 하였다. 지상 제어 시스템으로는 휴대가 가능한 노트북 을 사용하였으며 무인 비행체의 시뮬레이션 시험과 실제 비행 시험을 위한 환경을 구축하기 위한 목적으로 사용 된다.

4.1.2 시뮬레이션 비행 시험 환경

시뮬레이션 플랫폼은 시뮬레이션 상의 무인 비행체를 Takeoff, Landing, Pitch, Roll, Yaw, Throttle로 제어할 수 있는 기능이 있으며, 각 시뮬레이션에서 생성되는 센 서 데이터들을 표시할 수 있다. 시뮬레이션 플랫폼 상에 구현한 자동 착륙 알고리듬을 사용하여 실제 시험 비행 처럼 알고리듬을 실험해볼 수 있다.

Fig. 6은 구현한 시뮬레이션 제어 플랫폼을 보여준다.

그리고 산업 현장의 연구투자 환경을 고려할 때, 실제 무 인비행체를 사용하여 성능 및 검증시험을 행하기에는 시 간 및 비용 측면에서 많은 투자가 필요하다. 따라서 실제 실험을 행하기 전에 실제와 동일한 소프트웨어 환경을 조성하여 실제 시험 비행처럼 실험을 해볼 필요가 있다.

따라서 본 연구에서도 시뮬레이션을 위한 제어 플랫폼을 구성하여 제안하는 알고리즘을 시험해 본다.

Fig. 7은 시뮬레이션 플랫폼 상에서 자동 착륙 알고리 즘이 동작하는 전체 흐름도를 보여준다. 그림에서 시뮬 레이션 제어 플랫폼은 시뮬레이터로부터 전송된 영상과 고도 정보를 이용하여 유도 제어 명령을 생성한다. 시뮬 레이션 플랫폼은 시뮬레이터로부터 생성된 기체 영상과 센서 정보를 일반 소켓 통신으로 정보를 받아온다. 실제 비행 시험에 사용되는 지상 제어 시스템 내의 구현된 자 동 정밀 착륙 알고리듬과 동일하고 생성된 비행 제어 명 령이무인 비행체가 아닌 시뮬레이터로 통신모듈을 통해

(7)

Fig. 7. Flow Diagram of Automatic Landing Algorithm on Simulation Platform

서 전송된다.

4.1.3 실제 비행 시험 환경

실제 비행 시험을 행하기 위한 환경은 플랫폼 기능을 위한 노트북과 소형 무인비행체인 PIXHAWK로 구성되 며, 시리얼로 비행 정보의송수신을 위한 통신이 형성된 다. Fig. 8은 자동 정밀 착륙 비행 시험을 위한 하드웨어 구성을 나타낸다.

Fig. 8. Hardware Platform for Simulation and Real Experiments

Fig. 9는 실제 비행 시험 환경을 블록 다이어그램으로 나타낸 그림이다. 왼쪽은 블록은 무인 비행체를 의미하 며 기본적으로 카메라와 자세 및 위치 센서, 비행 명령을 처리하는 Flight Stack과 통신 모듈로 구성되어 있다.

무인 비행체에서의 카메라는 지속적으로 지상 제어 시스템으로 지형을 바라보는 영상을 전송한다. 영상은 무인 비행체에 탑재된 보드를 통해 지상 제어 시스템과

Wi-Fi 통신으로 연결 되어 있다. 지상 제어 시스템에서 는 전송되는 지형 영상을 도시하는 Landing View를 통 해 현재 무인 비행체 위치의 지형을 확인할 수 있다.

Landing시의 영상은 미리 설정한 마커 영상과 영상 정합 을 통해 유도 제어 명령을 생성한다. 생성된 유도 제어 명령은 실제 무인 비행체를 이동 시키는 비행 제어 명령 으로 무인비행체 통신 프로토콜인 MAVLink 통신 모듈 을 구현하여 무인 비행체와 통신한다.

Fig. 9. Block Diagram for Real Flight Test

5. 실험 및 결과

5.1 정밀 착륙 비행 실험

먼저 실제 실험 환경과 동일한 조건으로 시뮬레이션 환경을 설정하였다. 실외에서는 여러 가지 자연 환경의 영향을 받게 되어 시뮬레이션과 실제 비행을 일치시키기 어려운 점이 있어 본 연구에서는 외부 환경 영향이 없는

(8)

Fig. 11. Views of Position Control and Template Matching in Real Experiments Fig. 10 Views of Position Control and Template Matching in Simulation Experiments

실내 환경 하에서 시뮬레이션 실험을 행하였다.

Fig. 10은 시뮬레이션 실험에서 무인비행체가 2.0~2.5 미터 상공에서 위치 제어를 하고 있는 모습과 탬플릿 정 합을 시행하고 있는 모습을 보여준다.

Fig. 11은 동일한 환경과 조건 하에서 실제 자동 착륙 비행 실험을 행한 결과를 보여주고 있다. 두 그림에서 보 듯이 시뮬레이션과 실제 실험에서 거의 동일한 환경이 형성되어 있는 것을 알 수 있다. 실제 비행 실험은 모두 외부 대기의 영향이 없는 건물 내부에서 이루어졌으며, 외부의 경우 바람에 의해 최대 약 10cm 정도의 추가 오 차가 발생하는 현상이 일어날 것으로 예상되나 본 실험 에서는 외부 대기 영향이 없는 이상적인 상황에서만 측 정하였다.

5.2 자동 착륙 정밀도 실험

실제 비행 시험에서 착륙한 후의 자동 착륙 정밀도 실 험을 진행하였다. 총 9회 실험을 행하였으며 착륙 착지 후에 무인비행체와 탬플릿 사이의 거리를 재어 보았다.

Fig. 12는 자동 정밀 착륙 정밀도 측정의 과정을 나타 낸 그림이다. 가장 왼쪽의 그림은 자동 정밀 착륙 전 초 기 비행 환경을 설정하고 알고리듬 비행을 적용하는 순 간의 그림이다. 이후 자동 정밀 착륙의 하강 비행을 수행 하고 지면에서 착지할 때까지 무인 비행체에 어떤 수동 적인 제어를 관여하지 않는다. Landing Skids가 지면에 닫고 모터 제어가 종료될 때 측정을 시작한다. 착륙 오차 거리는 착륙 목적지인 마커 중심과 카메라 중심의 거리

(9)

Fig. 12. Views of Automatic Landing Steps in Real Experiments

를 실측한 것으로 기존의 착륙 오차 거리와 비교할 수 있 는 측정 자료이다. Table 2는 실제 비행 시험에서 측정된 오차 거리를 보여준다. 여기서 평균 오차 거리는 3.9 센티 미터로 측정되었다.

Table 2. Error Distance Measured from Real Flight Experiments

The Number of Experiments Error Distance (cm)

1 2.0

2 2.5

3 4.8

4 3.0

5 3.6

6 4.0

7 3.0

8 5.0

9 7.5

Average 3.9

6. 결론

소형 무인비행체를 산업분야에 응용함에 있어 템플릿 영상 정합 알고리즘을 적용하여 원하는 지점에 근접하여 착륙할 수 있는 정밀 착륙 기법을 제안하였다. 시뮬레이 션 실험과 실제 현장 실험을 통해서 제안하는 정밀 착륙 기법이 저가의 소형 무인비행체 응용산업에 유용하게 적용될 수 있음을 알 수 있었다. 고 사양의 하드웨어를 고려하고 SIFT와 같은 불변 특징 추출 알고리즘을 적용 하면 더욱 정밀한 착륙을 실현할 수 있을 것이다.

ACKNOWLEDGEMENT

본 논문은 2014년도 정부(교육부)의 재원으로 한국연 구재단의 지원을 받아 수행된 기초연구사업임.(No.2014R 1A1A2056434).

REFERENCES

[1] K. E. Wenzel and Masselli, “Automatic Take Off, Tracking and Landing of a Miniature UAV on a Moving Carrier Vehicle,” Journal of Intelligent &

Robotic Systems, Vol. 61, No. 1, pp. 221-238. 2011.

DOI : 10.1007/s10846-010-9473-0

[2] J. M. Roberts, P. I. Corke and G. Buskey, “Low-cost flight control system for a small autonomous helicopter,” Proceedings of the IEEE International Conference on Robotics and Automation, Vol. 1, pp.

546-551, 2003.

DOI : 10.1109/robot.2003.1241651

[3] H. Cheng, Y. Chen, X. Li and W. S. Wong,

“Autonomous takeoff, tracking and landing of a UAV on a moving UGV using onboard monocular vision,”

Proceedings of the Chinese Control Conference (CCC), pp. 5895-5901, 2013.

[4] S. Wang, Z. Y. Zhen, F. G. Zheng and X. H. Wang,

“Design of autonomous flight control system for small-scale UAV,” Proceedings of the IEEE Chinese Guidance, Navigation and Control Conference(CGNCC), 2014.

DOI : 10.1109/cgncc.2014.7007468

(10)

[5] D. Shen, H. L. Zhang, W. Yu, C. Lu, G. S. Chen, S. X.

Wei, Erik P. Blasch and K. Pham, “Scheduling methods for unmanned aerial vehicle based delivery systems,” Proceedings of the IEEE/AIAA 33rd, Digital Avionics Systems Conference(DASC), 2014.

DOI : 10.1109/dasc.2014.6979640

[6] D. Fitzgerald, R. Walker and D.Campbell, “A Vision Based Forced Landing Site Selection System for an Autonomous UAV,” IEEE Intelient Sensors, Sensor Networks and Information Processing, pp. 397-402, 2015. DOI : 10.1109/issnip.2005.1595612

[7] H. J. Mun and G. H. Choi, “Countermeasure to Underlying Security Threats in IoT Communication,”

Journal of Convergence for Information Technology, Vol. 6, No. 2, pp. 37-44, Jun. 2016.

DOI : 10.22156/cs4smb.2016.6.2.037

[8] Eugene Rhee, “Security Algorithm for Vehicle Type Recognition,” Journal of Convergence for Information Technology, Vol. 7, No. 2, pp. 77-82, Apr. 2017.

[9] Wikipedia, https://en.wikipedia.org/wiki/, 2017. 6.

[10] X. D. Chen, S. K. Phang, M. Shan and B. M. Chen,

“System integration of a vision-guided UAV for autonomous landing on moving platform,” Proceedings of the IEEE International Conference on Control and Automation (ICCA), 2016.

DOI : 10.1109/icca.2016.7505370

[11] S. P. Yang and Y. Z. Wang, “Research on visual navigation technology of unmanned aerial vehicle landing,” Proceedings of the IEEE International Conference on Information and Automation, 2013.

DOI : 10.1109/ICInfA.2013.6720343

[12] Wikipedia, “Scale-invariant feature transform,”

https://en.wikipedia.org/wiki/, 2017. 6.

[13] S. Saripalli, J. F. Montgomery and G. S. Sukhatme,

“Vision-based Autonomous Landing of an Unmanned Aerial Vehicle,” IEEE Robotics and Automation, 2002.

DOI : 10.1109/robot.2002.1013656

[14] Miguel A. Olivares-Mendez, Somasundar Kannan, and Holger Voos, “Vision-based Fuzzy Control Autonomous Landing with UAVs: From V-REP to Real Experiments,” Proceedings of the 23rd Mediterranean Conference on Control and Automation, 2015.

DOI : 10.1109/med.2015.7158723

[15] W. D. Ding, J. L. Wang and A. Almagblie, “Adaptive Filter Design for UAV Navigation with GPS/INS/Optic Flow Integration,” Proceedings of the International Conference on Electrical and Control Engineering, 2010. DOI : 10.1109/icece.2010.1117

저 자 소 개

김 종 우(Jong-Woo Kim) [정회원]

▪2014년 2월 : 경상대학교 항공우 주 및 소프트웨어공학전공 학사

▪2016년 2월 ~ 현재 : 경상대학교 항공우주특성화대학원 석사

▪2016년 10월 ~ 현재 : (주)픽소니 어 연구원

<관심분야> : 임베디드 시스템 구현, 항공 소프트웨어, 영상처리, 그래픽스

하 석 운(Seok-Wun Ha) [정회원]

▪1995년 2월 : 부산대학교 대학원 전자공학과 박사

▪2002년 2월 : 미국 캘리포니아대 학교(UCR) 방문 교수

▪1993년 2월 ~ 현재 : 경상대학교 항공우주 및 소프트웨어전공 교수 <관심분야> : 신호처리, 패턴인식, 그래픽스, 임베디드

및 항공 시스템 구현

문 용 호(Yong-Ho Moon) [정회원]

▪1998년 8월 : 부산대학교 대학원 전자공학과 박사 졸업

▪1998년 9월 ~ 2001년 8월 : 삼성 전자 DM연구소 책임연구원

▪2012년 2월 ~ 2013년 1월 : 미국 캘리포니아대학교(UCSB) 방문 교수

▪2007년 3월 ~ 현재 : 경상대학교 항공우주 및 소프트 웨어전공 교수

<관심분야> : 영상처리, 항공전자, SoC, 병렬처리, 임베 디드 시스템, 증강현실

참조

관련 문서

Therefore, among studies on operational aspect of this PRT system, this paper shows the result of study on technology in relation to the movement of vehicle to the

S., 2002, An Experimental Study on Brake Judder of Braking on Vehicle, Transactions of the Korean Society for Noise and Vibration Engineering, Vol. J., 2005, System Mode

this study experienced in the helicopter mode were the long delay on the ground in automatic take-off and the initial overshoot when the automatic landing was engaged. The

[7] Karine Younsi et al., &#34;Improving safety through online driver workload assessment&#34;, Proceedings of the 11th International IEEE Conference on Intelligent

Zong, “ Realization of a Service Climbing Robot for Glass-wall Cleaning”, IEEE International Conference on Robotics and Biomimetics, Shenyang, China, pp. Cheung, “ Wind

The Main Landing Gear(MLG) of Rotary Wing Aircraft is an essential equipment in Landing System for pilot to perform a flight mission.. It supports the fuselage at ground and

C., “Static and fatigue strength esti- mation of bogie frame for light railway vehicle,” Spring Conference Proceedings of the KSME(A), pp6. K., “Fatigue strength evaluation

&#34;Collaborative variational autoencoder for recommender systems.&#34; Proceedings of the 23rd ACM SIGKDD international conference on knowledge discovery