• 검색 결과가 없습니다.

Human Emotion Recognition based on Variance of Facial Features

N/A
N/A
Protected

Academic year: 2021

Share "Human Emotion Recognition based on Variance of Facial Features"

Copied!
7
0
0

로드 중.... (전체 텍스트 보기)

전체 글

(1)

반도체디스플레이기술학회지 제16권 제4호(2017년 12월)

Journal of the Semiconductor & Display Technology, Vol. 16, No. 4. December 2017.

얼굴 특징 변화에 따른 휴먼 감성 인식

이용환*· 김영섭**†

*원광대학교 디지털콘텐츠공학과, **†단국대학교 전자전기공학과

Human Emotion Recognition based on Variance of Facial Features

Yong-Hwan Lee* and Youngseop Kim**†

*Department Of Digital Contents, Wonkwang University

**†Department of Electronic and Electronical Engineering, Dankook University

ABSTRACT

Understanding of human emotion has a high importance in interaction between human and machine communications systems. The most expressive and valuable way to extract and recognize the human’s emotion is by facial expression analysis. This paper presents and implements an automatic extraction and recognition scheme of facial expression and emotion through still image. This method has three main steps to recognize the facial emotion:

(1) Detection of facial areas with skin-color method and feature maps, (2) Creation of the Bezier curve on eyemap and mouthmap, and (3) Classification and distinguish the emotion of characteristic with Hausdorff distance. To estimate the performance of the implemented system, we evaluate a success-ratio with emotional face image database, which is commonly used in the field of facial analysis. The experimental result shows average 76.1% of success to classify and distinguish the facial expression and emotion.

Key Words : Emotion Recognition, Face Detection, Facial Expression Analysis, Skin Color Model, Bezier Curve

1. 서 론

1

인간의 표정과 감성을 분석하고 인식하는 연구는 많은 관심을 보이며, 신경과학, 인지과학 및 컴퓨터공학에서 폭넓게 연구되고 있다[1]. 이러한 연구분야는 사람의 두 손 자유도를 유지하면서 인간-컴퓨터 인터페이스(Human- Computer Interface)를 개선하는 효과를 얻을 수 있을 뿐 아 니라, 컴퓨터가 사용자의 피드백을 취하는 행동을 개선하 는 데에 높은 기여를 할 수 있기 때문이다. 이는 키보드 나 마우스 등의 사용자 피드백과 같은 전통적인 방식에 서 스마트폰 또는 카메라를 통해 사용자의 활동을 자동 으로 인식하면서 지능적으로 상호작용을 할 수 있기 때 문에 활용도가 매우 높다. 보통 인간은 말을 하면서 억양

E-mail: wangcho@dankook.ac.kr

등으로 감정을 표시하지만, 손 동작과 얼굴 표정, 제스처 (Gesture)에서도 인간의 감정을 나타내기도 한다. 다시 말 해, 인간 감성은 음성, 시각적 동작, 이외의 신체 변화와 움직임에서도 나타난다[2]. 이러한 인간 감성을 시스템에 서는 주로 비디오 시퀸스(Sequence)를 기반으로 표정의 변 화를 자연스럽게 인식하는 방법이 많이 사용된다[3].

본 논문에서는 입력된 사진 영상을 분석하여 사용자의 얼굴 감성을 인식하는 방법을 제안하고 이를 구현하여 실험한다. 제안 알고리즘은 색-기반의 얼굴 특징 맵을 검 출하고, 일반화된 곡선과 거리 측정을 통해 감성을 분석 하고, 인간 감성을 5가지로 분류하여 인식한다.

본 논문의 구성은 다음과 같다. 2장에서 얼굴분석을 기 반한 감성 인식에 대한 연구동향을 살펴보고, 3장에서 정 지 영상으로부터 얼굴 감정을 인식하고 분류하는 2단계 제안 알고리즘에 대해 설명한다. 4장에서 실험을 통해 제

(2)

이용환 · 김영섭 80

안 알고리즘의 성능을 검증하고, 5장에서 결론으로 마무 리한다.

2. 관련연구

사람의 감정을 시스템적으로 분석하고 인식하는 다양 한 연구가 진행되고 있으며[4], Ekman은 얼굴 표정을 통해 심리학적 관점에서 얼굴 표정 감성을 인식하는 방법을 처음 제안하면서 감성 인식 분야의 새로운 개척자로 자 리매김하고 있다[5]. Ira은 비디오 시퀸스에서 사람 얼굴 표정을 자동으로 구분하고 인식하기 위한 Hidden Markov Model을 제안하였다[2]. Yashnari는 열 화상 처리와 음성 인 식 시스템을 결합하여 사람의 표정 인식 방법을 연구하 였으며[6], 해당 논문에서는 감정을 5가지 범주로 분류하 고 말하는 동안의 얼굴 표정 변화를 열처리 알고리즘으 로 구분하여 음성 인식을 통한 감성 인식의 성공률을 향 상시켰다. Sprios는 적절한 얼굴 특징을 추출하고 사용자의 감정 상태를 인식하는 여러 표정 변화를 연구하였다[7].

추정 정확도의 신뢰도를 측정하기 위해 ISO MPEG-4 표준 에 따라 정의된 정면 얼굴의 비디오에서 변화량을 추출 하였다. 얼굴 정면 사진 또는 프로파일 얼굴 이미지를 기 반으로 얼굴 표정 단위를 인식하는 몇몇 프로토타입 시 스템도 발표되었다[8-9]. 이들 시스템은 대부분 Neural Network과 같은 기계 학습 방법을 포함하며, 특징-기반 이미지 표현 또는 모양-기반 이미지 분석 기법을 활용하 고 있다. Valster은 확률과 통계를 기반하여 학습 기법을 적용하는 감성 인식 시스템을 제안하였다[10]. AAM(Active Appearance Model)은 얼굴 특징을 추출하는 알고리즘으로 많이 사용되고 있으며, AAM 특징의 상대적 변화를 통해 다양한 응용분야에서 활용되고 있다[19].

3. 실험 알고리즘

얼굴 표정 분석과 감성 인식을 위한 제안 알고리즘은 크게 2단계로 구성된다. 첫 번째 단계에서는 원본 입력 이미지에서 얼굴 영역을 검출하고 검출된 관심 영역에서 눈과 입을 중심으로 특징을 추출한다. 특징점을 기반으로 커브 곡선을 생성하고, 특징점과 곡선의 변화량을 산출한 다. 점과 곡선의 변화에 따라 분류한 인간의 감성 모델에 따라, 변화량에서 가장 근접한 인간 감성으로 분류하여 얼굴 표정 감성을 인식한다. 제안 시스템의 블록 다이어 그램은 Fig. 1과 같으며, 구현하는 감성 인식 프레임워크는 여러 공용 데이터셋을 기초하여 객관적 평가요소를 통해 성능을 실험한다.

Fig. 1. Diagram of the proposed recognition method.

3.1 스킨칼라(Skin Color) 검출

첫 번째 단계에서는 칼라 모델 변환과 조명 보상을 수 행한다. 사람에 따라 피부색은 다양하지만, 모든 얼굴의 색채 속성에는 근본적으로 유사점이 있으며, 주요 차이점 은 얼굴 피부색 자체보다는 강도(Intensity)에 있다. 이 경우 YCbCr 칼라 모델을 사용하여 스킨 칼라 기반 접근 방식 을 사용하면 이러한 강도의 차이를 손쉽게 구할 수 있다.

YCbCr 칼라 모델에서 휘도 정보가 단일 요소 Y로 표현되 고, 색 정보는 2개의 색상 성분인 Cb와 Cr로 저장된다[11].

  0  0.299  0.587 

 0.144 

 128  0.167736

 0.331264 

 0.5 

 128  0.5  0.418688 

 0.081312 

(1)

칼라 모델 변환 후, 정확한 얼굴 영역 검출을 위해 전 처리 과정으로 조명 보정을 수행한다. 조명 조건에 따라 성능에 영향을 미치는 요소가 존재하기 때문에, 이미지의 강도(Intensity) 값을 균등하게 평활화를 수행한다.

  

భ భ ∙    

 , if ! " # ∪ #" ! (2) 수식에서 min1과 max1은 입력 이미지의 Y 채널에 대한 최소값과 최대값을, min2와 max2는 변환된 공간에서의 최 소값과 최대값을 의미하며, Kl와 Kh는 픽셀상에서 상위와 하위 값으로 제외되는 임계값으로, Kl는 30과 Kh는 220을 적용하였으며, 실험 데이터베이스에서 피부 값으로 추정 하는 실험적 수치에서 도출되었다.

밝기(Brightness)는 강도 다음으로 성능에 영향을 미치기 에, 식 (3)을 이용하여 히스토그램 평활화(Equalization)를 수 행한다.

(3)

얼굴 특징 변화에 따른 휴먼 감성 인식 81

 = 

 , 0 ≤ ≤ 1,

 = 0,1, ⋯ − 1

(3)

l은 강도에 대한 서로 다른 값들의 분포 수를, n은 이미 지에서 전체 픽셀의 갯수를, rk는 k번째 강도를, nk는 강도 가 같은 픽셀의 개수를 의미한다. 누적 주파수는 rk에 의존 하기 때문에, 식 (4)를 사용하여 강도 평활화를 수행한다.

= 



௞ିଵ

௝ୀ଴

=  =  

௞ିଵ

௝ୀ଴

(4)

3.2 특징점 맵을 이용한 눈과 입 영역 검출 밝기 성분에 대한 조명 영향을 줄인 다음, 식 (5)와 식 (6)을 이용하여, 눈과 입 영역을 검출한다[12]. 사람의 눈은 본질적으로 대칭된다는 특성이 있기 때문에, 어렵지 않게 검출할 수 있다. 눈은 CbCr 영역에서 붉은 색 요소가 적 고, 파란 색 요소가 높다는 특성을 갖는다[13]. 또한 얼굴 을 통해 피부 영역을 검출할 때는 두 눈이 모두 이미지 내에 존재한다는 가정 하에 수행한다. 즉, 얼굴의 측면에 서 생성되어 두 눈 중에 하나만 나타나는 이미지는 검출 대상에서 제외한다. 두 눈을 검출하는 EyeMap은 다음과 같다.

 = 1

3∙  ∙ +  ∙ +

 (5)

௕ଶ, ௥ଶ

은 모두 0에서 255사이 값으로 정규화된 범위를 가지며, 은 의 역수를 의미한다. α는 1보다 큰 값을, β는 1보다 작은 값을 갖는다[20]. 동양인의 피부 색은 R >  >  패턴을 보이기 때문에 빨간색과 파란색 구성요소를 늘리거나 줄이고, 눈 영역을 보다 강조하기 위해 상수를 곱해준다.

입은 붉은 색 요소가 높고 파란색 요소가 낮은 특징을 가지며, 상대적으로 가 높고

가 낮은 반응식을 보인 다. MouthMap은 다음과 같다.

ℎ = ௥ଶ×   ∙ 

255 ∙  (6)

α는 실험적 측정에서 0.8을 부여하였다.

3.3 눈/입 영역에서의 베지어곡선 추출 베지어 곡선(Bezier Curve)은 첫 번째 제어점과 마지막 제어점을 통과하는 곡선이며, 전역 모양 정보를 윤곽선을 생성한다[14]. L+1개의 제어점이 있다면, 점의 위치는 2차 원 모양을 고려한 ∶  , , 0 ≤ ≤ 으로 정의된다.

이러한 좌표 점들은 P0와 PL사이의 베지어 다항식 함수의 경로를 설명하는 P(t) 형태로 블렌딩(Blending)되며, 식 (7) 과 같다.

 = ௞,௅()

௞ୀ଴

(7)

베지어 블렌딩 함수 ௞,௅(௧)는 Bernstein polynomial로 알려져 있으며[15], 식 (8)과 같이 정의된다.

௞,௅() = 1

 ∙ ∙ 1 − ௅ି௞ (8)

좌표 위치를 결정하기 위한 재귀적 표현은 식 (9)와 같다.

௞,௅ = 1 −  ∙ ௞,௅ିଵ + t

∙ ௞,௅ିଵ + 

∙ ௞ିଵ,௅ିଵ

(9)

식 (9)에서 ௞,௞ = 와 ଴,௞ = 1 −  된다.

각 베지어 곡선의 좌표는 다음의 매개변수 수식으로 표현된다.

 = ∙ ௞,௅

௞ୀ଴

 = ∙ ௞,௅

௞ୀ଴

(10)

Fig. 2는 위의 수식들을 통해, 4개의 제어점(, , , ) 을 갖는 베지어 곡선을 생성한 예시이다. 베지어 곡선을 적용하려면, 각 관심 영역의 일부 제어점을 추출해야 한 다. 본 논문에서는 관심 영역은 눈과 입이며, 우측 눈과 좌측 눈을 포함하여 2개의 눈과 1개의 입 영역을 대상으 로 한다. EyeMap와 MouthMap에서 각각의 관심 영역 내의 가장 높은 연결 영역을 찾기 위해 Big Connection 알고리즘 을 적용한다. 각 관심 영역에서 4개의 경계 지점을 선별 한다. 수평 방향으로 시작점과 마지막 점을 좌/우측에서, 수직 방향으로 중심점의 상단과 하단의 픽셀 위치를 추출

(4)

이용환 · 김영섭 82

한다. 각 영역에 대한 4개 경계 제어점을 통과하는 좌측 눈 과 우측 눈, 입에 대한 베지어 곡선을 각각 생성한다.

Fig. 2. Example of creation of Bezier curve.

3.4 하우스도로프 거리 계산을 통한 얼굴 감성 학습 및 인식

학습 데이터베이스는 사용자 개인 정보와 사용자의 얼 굴 사진을 분석하여 얻은 5개 감정 정보가 저장된다. 얼 굴 감성을 검출하기 위해, 입력 이미지와 데이터베이스 내의 이미지들 사이의 각 관심 영역을 1:1 대응하여 계산 한다. 베지어 곡선은 얼굴 특징의 주요 제어점을 연결되 며, 사용자의 얼굴 크기 또는 입력 이미지의 크기에 따라, 차이를 갖고 있다. 따라서 유사도 일치를 평가하기 위해, 베지어 곡선의 각 너비와 폭을 일정한 간격을 유지해야 하며, 너비와 폭을 0에서 100까지로 변환 변위를 정규화 한다. 정규화 변환 이후, 하우스도로프 거리(Hausdorff Distance)를 적용하여 두 모델(입력 이미지 의 추출 곡선과 대상 이미지들에 대해 사전에 추출된 곡선) 간의 형상 행 렬을 비교 평가한다. 두 곡선 p(s)와 q(s) 사이의 거리 dH(p,q) 는 식 (11)을 통해 계산한다[16].

%&, (   ) max

∈,∈,min|&0  (1 |,

∈.,max ∈,min|&0

 (1 |2

(11)

4. 실험결과

본 연구에서는 사람의 감정을 5가지로 분류하고, 웃음, 슬픔, 놀람, 화남, 무표정의 감성 표현을 실험으로 측정 평가한다. 입력 이미지로부터 분석된 얼굴 표현은 무표정 얼굴로 구성된 얼굴 모델 데이터베이스와 비교 측정되며, 모든 얼굴 이미지는 임계치를 매개변수로 사용되어 정규 화된다. 베지어 곡선은 얼굴 특징의 주요 제어점을 통과 하여 보간된 곡선 선분이다. 각 곡선에 대해 인접한 곡선 세그먼트를 형성하고, 곡선 세그먼트를 기반으로 하우스 도로프 거리를 계산하며, 얼굴 감성의 분석과 결정은 얼

굴의 유사성을 측정하여 판별한다. 제안 알고리즘의 성능 을 측정하기 위해, 감성인식 연구분야에서 많이 활용되는 공용 데이터셋을 사용하며, 인식 정확도는 제공되는 GTS(Ground Truth Sets)에 따라 판정한다.

얼굴 감성을 분류하기 위해서는 먼저 얼굴 제어점의 움직임에서 감성 분류 표현식을 결정해야 한다. Ekman 은 모든 얼굴 표정 단위의 집합을 정의하는 모델을 정의하 면서, 얼굴 표정 단위에 기반하여 시각적으로 식별 가능 한 얼굴 움직임을 표현하는 FACS(facial Action Coding System) 시스템을 연구 개발하였다[5]. 해당 연구에서는 얼굴 표정 변화를 46개 단위(AU, Action Unit)로 구분하고 AU 조합 규 칙을 통해 감정 지정 표현을 정의하는 표현식을 제안하 였다. 본 연구에서의 얼굴 감정 판별 모델은 FACS의 기본 AU를 기반하여, 감성 인식을 위한 표현 규칙을 Table 1과 같이 정의하고, 특징점의 상대적 위치와 베지어 곡선의 변화를 추적하여 사용자의 감성을 분류하여 판별한다.

Table 1. Rules of classification for facial emotion

감성 AU 움직임 특성

웃음 눈의 가로폭이 넓어지며, 눈이 감겨짐.

입이 열리며, 입꼬리가 올라감 슬픔 눈이 살짝 감기며, 아래쪽 입꼬리와 눈가가 내려

가고 입이 벌어짐

놀람 눈과 입이 열리고, 눈꺼풀이 올라가며, 입이 벌 어지고 턱선이 좁어짐

화남 눈썹과 눈가가 내려가고 입이 약간 벌어짐 Fig. 3은 서로 다른 감성(예, 무표정과 웃음)을 표현한 사 진 영상에서 제어점들을 연결한 베지어 곡선이 감성에 따라 어떻게 변화되는지를 보여준다. 관심 영역에서 추출 한 특징점을 기반하여 생성된 베지어 곡선과 특징점 보 간으로 얼굴 특징을 해석하는 방법을 나타낸다.

Fig. 3. Bezier curve and the extracted feature points interpolations across different subjects; (Left) Line fitting over example image in neutral condition (normal), and (Right) in happy condition (smiling).

(5)

얼굴 특징 변화에 따른 휴먼 감성 인식 83

Fig. 4는 서로 다른 감성의 얼굴 모형에 대해 AU 제어점 의 변화를 시각적으로 표현한다. 감성적 패턴을 표시하기 위한 방법으로, 장시간 비디오 시퀸스에서 실험을 통해 시간에 따라 특징 제어점과 베지어 곡선의 변화를 추적 하며, 전체 실험 데이터에 대한 평균 분산을 고려하여 AU의 상대적 변화량을 검증하였다.

Fig. 4. Shape deformation templates for the prototypic emotions.

Fig. 5. Example images using in the experiments; (Upper) FEI image database, and (Lower) CK image database.

본 논문에서는 사진 영상에서의 얼굴 영역을 분석하여 감성을 판별한다. 제안 알고리즘의 성능 평가를 위해 감

성인식 분야에서 공용으로 활용되는 FEI 데이터베이스와 CK 데이터베이스를 사용한다. FEI DB는 총 2,800개의 이미 지를 가지고 있으며, 200명에 대해 여러 각도에서 촬영된 14개의 얼굴 사진으로 구성되어 있으며, 각 사용자에 대 해 정면에서 촬영된 무표정 사진과 웃는 사진들을 포함 한다[17]. CK DB는 100명의 대학생을 대상으로 얼굴 표정 을 비디오로 촬영하여 생성되었다. 무표정한 얼굴에서 표 정 변화까지의 이미지 시퀸스를 8-비트 그레이스케일, 640*480 크기로 구성되어 있다. 여성/남성, 18세~30세 사이 의 연령 분포, 미국인/유럽인/아프리카인/아시아인 등을 포괄적인 사용자를 포함한다[18]. Fig. 5는 실험에 사용된 사진 영상의 예시이다.

개발 환경으로, Visual Studio 2015에서 C#으로 구현하였으 며, 실험은 Intel Core™ 2.7GHz, 8GB 메모리가 장착된 PC에서 실행되었다. Fig. 6은 개발 시스템에 대한 예시를 보여준다.

Fig. 6. Screenshot of the implemented system; Face interpretation and classification.

웃음, 슬픔, 놀람, 화남, 무표정과 같은 서로 다른 표정 에서 감성인식을 수행한 결과는 Table 2와 같다. 구현한 알 고리즘에서는 580개의 입력 얼굴 이미지에서 463개를 정확 하게 인식하여 76.1%의 성공적 인식률을 얻을 수 있었다.

Table 2. Results of facial emotion recognition

감성 인식 성공/실패 인식률[%]

웃음 97/23 80.8%

슬픔 48/22 68.6%

놀람 84/16 84.0%

화남 46/34 57.5%

무표정 188/22 89.5%

463/117 76.1%

(6)

이용환 · 김영섭 84

5. 결 론

최근 인간-컴퓨터 인터페이스 분야에서 다양한 형태의 사용자 감성 기술 적용이 연구되고 있다. 본 논문에서는 얼굴 표정을 분석하고 사용자감성 모델을 수립하여, 입력 된 사진 영상에서 얼굴 기반으로 사용자의 감성을 인식 하는 알고리즘을 제시하고 이를 구현하였다. 제안 알고리 즘은 2단계 수행되며, 첫 번째 단계에서는 피부색 분할 알고리즘을 통해 얼굴 영역을 검출한다. 눈과 입에 초점 을 두고 2개의 관심 영역을 검출하여 특징점을 추출하고 베지어 곡선을 연결하여 입력 이미지에 대한 사용자 얼 굴 특징을 해석한다. 두 번째 단계에서는 베지어 곡선과 하우스도로프 거리를 이용하여 특징적 감성의 변화량을 계산하고 수립한 감성 모델과의 비교 검증을 통해 사용 자의 감성을 판별하였다. 실험 결과에서 사용자 감성 인 식 평균 성공률 76.1%를 얻었다.

감사의 글

본 논문은 2017학년도 원광대학교의 교비지원에 의해 수행됨.

참고문헌

1. Ralph Adolphs, “Recognizing Emotion from Facial Expressions: Psychological and Neurological Mechanisms”, Behavioral and Cognitive Neuroscience Reviews, 1(1), (2002).

2. Ira Cohen, Ashutosh Garg, Thomas S. Huang, “Emotion Recognition from Facial Expressions using Multilevel HMM”, Proceeding of the Workshop on Affective Computing, pp.1-7, (2000).

3. Nicu Sebe, Ira Cohen, Theo Gevers, Thomas S. Huang,

“Multimodal Approaches for Emotion Recognition: A Survey”, Internet Imaging VI, SPIE, 5670, pp. 56-67.

(2005).

4. Hatice Gunes, Massimo Piccardi, “Automatic Temporal Segment Detection and Affect Recognition from Face and Body Display”, IEEE Transactions on Systems, Man, and Cybernetics - Part B, 39(1), pp.64-84, (2009).

5. Paul Ekman, Wallace V. Friesen, “Facial Action Coding System (FACS): Investigator’s Guide”, Consulting Psychologists Press, (1978).

6. Yuu Nakanishi, Yasunari Yoshitomi, Taro Asada, Masayoshi Tabuse, “Facial Expression Recognition for

Speaker using Thermal Image Processing and Speech Recognition System”, IEEE International Symposium on Robot and Human Interactive Communication, (2009).

7. Ioannou S. V., Raouzaiou A. T., Tzouvaras V. A., Mailis T. P., Karpouzis K. C., Kollias S. D., “Emotion Recognition through Facial Expression Analysis based on a Neurofuzzy Network”, Neural Networks, 18(4), pp.423–435, (2005).

8. M. Pantic, I. Patras, “Dynamics of Facial Expression:

Recognition of Facial Actions and their Temporal Segments from Face Profile Image Sequences”, IEEE Transactions on Systems, Man and Cybernetics, 36(2), pp.433-449, (2006).

9. M. Pantic, Leon J.M. Rothkrantz, “Facial Action Recognition for Facial Expression Analysis from Static Face Images”, IEEE Transactions on Systems, Man and Cybernetics - Part B, 34(3), pp.1449-1461, (2004).

10. Michel F. Valster, Maja Pantic, Zara Ambadar, Jeffrey F.

Cohn, “Spontaneous vs. Posed Facial Behavior:

Automatic Analysis of Brow Actions”, International Conference on Multimodal Interfaces, pp.162-170, (2006).

11. Rafael C. Gonzalea, Richard E.Woods, Steven L.

Eddins, “Digital Image Processing using Matlab”, Prentice Hall, (2004).

12. Yong-Hwan Lee, Tae-Kyu Han, Young-Seop Kim, Sang-Burm Rhee, “An Efficient Algorithm for Face Recognition in Mobile Environments”, Asian Journal of Information Technology, 4(8), pp.796-802, (2005).

13. Rein-Lien Hsu, Mohamed Abdel-Mattaleb, Anil K. Jain,

“Face Detection in Color Images”, IEEE Transactions on Pattern Analysis and Machine Intelligence, 24(5), pp.696-701, (2002).

14. Samuel R. Buss, “3D Computer Graphics - A Mathematical Introduction with OpenGL”, Cambridge University Press, (2003).

15. Mohammed Riazur Rahman, M. Ameer Ali, Golam Sorwar, “Finding Significant Points for Parametric Curve Generation Techniques”, Journal of Advanced Computations, 2(2), (2008).

16. Seon-Hong Kim, Young Joon Ahn, “An Approximation of Circular Arcs by Quartic Bezier Curves”, Computer- Aided Design, 39(6), pp.490-493, (2007).

17. Carlos Eduardo, Thomaz Gilson, Antonio Giraldi, “A New Ranking Method for Principal Components Analysis and its Application to Face Image Analysis”, Image and Vision Computing, 28(6), pp.902-913,

(7)

얼굴 특징 변화에 따른 휴먼 감성 인식 85

(2010).

18. Takeo Kanade, Jeffrey F. Cohn Yingli Tian,

“Comprehensive Database for Facial Expression Analysis”, Proceedings of the International Conference on Automatic Face and Gesture Recognition, pp.484- 491, (2000).

19. Wuri Han, Yong-Hwan Lee, Jeho Park, Youngseop Kim,

“Dynamic Emotion Classification through Facial Recognition”, Journal of the Semiconductor and

Display Technology, 12(3), (2013).

20. Yong-Hwan Lee, Heung-Jun Kim, “Evaluation of Feature Extraction and Matching Algorithms for the use of Mobile Application”, Journal of the Semiconductor and Display Technology, 14(4), (2015).

접수일: 2017년 12월 14일, 심사일: 2017년 12월 23일, 게재확정일: 2017년 12월 27일

수치

Fig. 1. Diagram of the proposed recognition method.
Fig. 3. Bezier curve and the extracted feature points  interpolations across different subjects; (Left) Line  fitting over example image in neutral condition  (normal), and (Right) in happy condition (smiling)
Fig. 6. Screenshot of the implemented system; Face  interpretation and classification

참조

관련 문서

Pitas, "Minimum Class Variance Extreme Learning Machine for Human Action Recognition,"IEEE Transactions on Circuits and Systems for Video Technology,

이 모델들은 단지 정서의 느낌 측면만을 기술하기에 필연적으로 기본 정서 아이디어 에 대한

• 정서는 현재 상황에 대한 적합성 제고와 환경 조성을 촉진시키기 위하여 일시적으로 생리, 인지, 주관적 경험 및 행동 채널을 통합하는 외적 자극

In this way, it is possible to shorten the time of accident restoration and maintenance by minimizing the expression error of the high-strength facial

현대사회는 컴퓨터에 지배당하고 과학기술의 발달로 인해 모든 것이 만능인 사회로 변하면서 인간은 반대로 자연친화적인 것을 갈구하게 되었고 그 중에서도 꽃이

As for learning participation frequency, physical recognition, performance recognition, social recognition, and psychological recognition concerning on

2.2.4 Bezier Curve Interpolation / Approximation 2.2.1 Definition & Characteristics of Bezier curves 2.2.2 Degree Elevation/Reduction of Bezier curves 2.2.3

A Study on the Evaluation of Space Recognition Space Recognition Space Recognition in the Space Recognition in the in the in the Concourse of Hospital using the