• 검색 결과가 없습니다.

박광현

N/A
N/A
Protected

Academic year: 2022

Share "박광현"

Copied!
1
0
0

로드 중.... (전체 텍스트 보기)

전체 글

(1)

BERT를 이용한 한국어 자연어처리: 개체명 인식, 감성분석, 의존 파싱, 의미역 결정

박광현

1

, 나승훈

1

, 신종훈

2

, 김영길

2

1

전북대학교,

2

한국전자통신연구원

khpark231@gmail.com, nash@jbnu.ac.kr, jhshin82@etri.re.kr, kimyk@etri.re.kr

Cognitive Computing Lab.

Ⅰ. BERT

• 사람, 시간, 날짜, 장소 등 특정한 의미를 가지고 있는 단 어를 인식하는 sequence labeling 문제

• ETRI의 엑소브레인 언어분석 말뭉치를 이용하여 실험

Ⅱ. 개체명 인식

Ⅴ. 의미역 결정

모델 F1

LSTM-CRF 86.53%

LSTM-CRF+사전자질 89.34%

BERT(Multilingual) 91.92%

BERT(형태소-태그) 91.58%

Ⅲ. 감성분석

• 문장으로부터 좋음, 나쁨 등의 감정을 분석하는 문제

• 네이버 영화리뷰 데이터를 이용하여 실험

모델 F1

LSTM 79.79%

CNN 78.34%

BERT(Multilingual) 87.43%

BERT(형태소-태그) 86.57%

Ⅳ. 의존 파싱

• 문장 내 구성 성분 간의 관계를 분석하여 문장의 구조를 결정하 는 문제

• SPMRL 데이터, 세종 데이터를 이용하여 실험

• 평가 척도로 UAS(Unlabeled Attachment Score)와 LAS(Labeled Attachment Score)를 사용

모델 UAS LAS

Multi-level Biaffine 91.95% 91.38%

Multi-level Biaffine

+BERT(Multilingual) 91.93% 91.31%

Deep Biaffine 90.85% 89.31%

BERT(형태소-태그) 93.24% 92.67%

모델 UAS LAS

Multi-level Biaffine 91.84% 89.43%

Multi-level Biaffine

+BERT(Multilingual) 92.32% 90.03%

멀티 태스크 포인터 네트워크 91.65% 89.34%

BERT(형태소-태그) 92.76% 90.58%

의존 파싱 SPMRL 데이터 실험결과

의존 파싱 세종 데이터 실험결과

[CLS] 박찬호/NNP … ./SF

BERT

O B-PS … O

개체명 인식 모델 구조

[CLS] 특히/MAG

봉착/NNG

BERT

O ARG0 … O

LSTM-CRF 모델

[SEP] [SEP]

[CLS] 최고/NNG … ./SF

BERT … 긍정

감성분석 모델 구조

[CLS] 사람/NNG … ./SF

BERT

O sbj … O

Multi-level Biaffine 모델

의존파싱 모델 구조

• 의미역은 서술어에 의해 기술되는 행위나 사태에 대한 명사의 의미 역할을 나타냄

• 서술어에 의해 기술되는 명사구를 논항 이라고 함

“그는(ARG0) 경찰에게 신분증을(ARG1) 보였다.”

모델 F1

LN LSTM-CRF 78.10%

Stacked LSTM-CRF 78.57%

LSTM-CRF+BERT(형태소-태그) 84.46%

의미역 결정 실험결과(AIC)

• 540MB 정도의 위키피디아 코퍼스를 사용하여 사전학습 진행

• 입력 문장으로 형태소-태그 사용(1997/SN 년/NNB)

• 최대 문장 길이를 128로 학습을 진행한 후 384로 추가 학습 진 행

• 인코더 블록 개수 12, 어텐션 헤드 개수 12, 히든 사이즈 768, 드랍아웃 0.1 사용

개체명 인식 실험결과

의미역 결정 모델 구조

• Korean propbank데이터를 이용하여 실험

감성분석 실험결과

• Attention을 이용한 인코더인 Transformer 기반의 사전 학습 언 어모델

• Masking 단어 예측과 다음 문장이 적절한지 판단하는 2가지 문제로 사전 학습을 진행

- Masked Language Model

“철수는 밥을 [MASK] .”

- Next Sentence Prediction

“철수는 밥을 먹었다. [SEP] 그리고 학교에 갔다.”

참조

관련 문서

콘티구상 Time Breakdown Scenario Breakdown - Time Breakdown, Budget Breakdown Conti 작성 -> 인물, 시간, 장소 별 Conti Breakdown. 스토리보드 Pre Visualization Story

브랜드 연상이 전이 되기 때문에 다른 브랜드, 사람, 장소, 사물과 같은 개체 로부터 브랜드 지식을 빌려 브랜드 자산을 구축하는 간접적인 접근방법으로 기존의

“나는 이미 의자의 두꺼운 겉 천으로 된 좌석판을 팽팽하게 연결된 천으로 바꾸는 아이디 어를 가지고 있다.. 또한 나는 탄력

• Short-Term Memory: 짧은 시간 동안 정보를 가지고 있 을 수 있는 제한된 능력의 기억 저장고.. 짧은 지속시간 (seconds to minutes) 제한된

과거에는 거름이 되던 것이 , 현재에는 거름도 되지 못하고 오염원으로 남는 것을 통해 의미를 전달한다... 이 세상에 살고 있는 또 다른 찬밥신세의 사람 들과 공감대를

 합의에 의해 특정핚 글자나 소리의 조합이 우리에게 의미를 갖게 된 것이지 그 상징 자체가 본래부터 어떤 단어의 의미를 가지고 있었던 것은

언어의 의미를 중심으로 하여 듣기 , 말하기, 읽기, 쓰기의 자연스러운 결합으로 언 어를 지도하고자 하는 방법이다. 총체적 언어 접근법은 다음과 같은 원리에 기본을 두고 있다.

언어의 지식으로서의 문형을 수업 중에 어떻게 다루고, 어떻 게 의사소통능력과 연계할 지에 대해서 생각한다... 그 언어 형식의