• 검색 결과가 없습니다.

R&D연구결과보고서

N/A
N/A
Protected

Academic year: 2021

Share "R&D연구결과보고서"

Copied!
97
0
0

로드 중.... (전체 텍스트 보기)

전체 글

(1)

정보통신·방송 연구개발 사업

참여형 양방향 콘텐츠 및 협력 학습 환경 기반 학습자 맞춤형 상호작용 창의

학습 튜터링 기술 개발

(Development of personalized and creative learning tutoring system based on participational

interactive contents and collaborative learning technology)

한국전자통신연구원

정보통신기술진흥센터

(2)

[보고 서식 제2호]

연 차 보 고 서

사업명 정보통신·방송 연구개발 사업 과제번호 14-811-12-002

과제명

(국문) 참여형 양방향 콘텐츠 및 협력 학습 환경 기반 학습자 맞춤형 상호작용 창의 학습 튜터링 기술 개발

(영문) Development of personalized and creative learning tutoring system based on participational interactive contents and collaborative learning technology

주관기관 한국전자통신연구원 총괄책임자 지형근

참여기관 (책임자)

한국교육방송공사(김경수), KAIST(양현승), ㈜쏠리드에듀(안문환), 아가월드㈜(김경찬), ㈜엔브이알(전철수), ㈜제이투와이소프트(정정열) 총수행기간 2014. 04. 01. ~ 2018. 02. 28. (4년)

협약기간 2015. 03. 01. ~ 2016. 02. 29. (12개월) 해당년도

수행기간 2015. 03. 01. ~ 2016. 02. 29. (12개월)

협약기간 총사업비(천원)

정 부

출연금 7,800,000 민 간 부담금

현금 268,000

10,468,000 현물 2,400,000

해당연도 사업비(천원)

정 부

출연금 1,800,000 민 간 부담금

현금 67,000

2,467,000 현물 600,000

키워드

(6 ~ 10개) 교육 콘텐츠, 상호작용, 창의학습, 몰입형 학습

정보통신․방송 연구개발 관리규정 제33조에 의거하여 연차보고서를 제출합니다.

2016년 1월 29일

총괄책임자: 지 형 근 (인) 주관기관장: 이 상 훈 (인)

미래창조과학부 장관 귀하

(3)

Ⅰ. 해당 연도 추진 현황

Ⅰ-1 기술개발 추진 일정

( 계획 : 실적 : )

개발내용 추진실적 결과물 진도 추진 실적(월)

3 4 5 6 7 8 9 10 11 12 1 2 1. 공간증강 인터랙티

브 방송/VOD 시스템

- 공간증강 인터랙티브 VOD 시

스템 V1.0 개발 시스템 정상

2. 공간증강 인터랙 티브 VOD 저작 기술

- 공간증강 인터랙티브 VOD 저

작 도구 V1.0 개발 프로그램 정상

3. 실공간 세그멘테 이션 및 객체 변형 기술

- 총 9종 이상의 학습 공간 객 체 세그멘테이션 기능 구현 - 총 4종의 실공간 객체 변형

효과 적용

프로그램 정상

4. 객체 시뮬레이션 및 인터랙션 기술

- 총 3종의 객체 시뮬레이션 기 술 구현

- 총 11종의 인터랙션 기술 구현

프로그램 정상

5. 다중 시스템 연동 체험형 학습 시스템

- 다중 시스템 연동 체험형 시

스템 설계 기술문서 정상

6. 다중 시스템 연동 체험형 학습 저작 기

- 다중 시스템 연동 체험형 저 작 도구 설계

- GUI, 메뉴선택 형의 인터랙션 저작 인터페이스 요구사항 정의

기술문서 정상

7. 독립 구동 체험형 학습 시스템 고도화

- 3D 엔진 교체 및 구조 개발 - 플러그인 기반 학습자-가상객

체 인터랙션 모듈 구현

프로그램 정상

8. 배경, 의상에 강인 한 학습자 추출 기술

- 떨림 현상 보정 및 외곽선 보 정 알고리즘 개발

- 도서관, 유치원 사용자 영상 DB 수집 완료 및 영상 레이 블링 완료

프로그램 정상

9. 사용자와 동기화 된 가상 아바타 기술

- 사용자와 동기화된 가상 아바 타 모션 제어 기술 분석 - 사용자와 동기화된 오브젝트

제어 기술 분석

기술문서 정상

10. 창의 학습 콘텐 츠 추천 기술 연구

- 인지진단모형 기반의 학습자 수준 진단 기술 개발

- 학습 진단 결과 기반의 학습 콘텐츠 추천 기술 개발 - 학습자 수준에 맞는 시험 문제

자동 구성 개발

프로그램 정상

(4)

11. 창의 학습 에이 전트 기술 연구

- 학습자 모델링 규격 설계 - 콘텐츠 규격 설계 - 학습 관리 시스템 개발

프로그램 정상

12. 콘텐츠 개발 및 서비스 사업화

- 총 5종의 공간증강 인터랙티 브 콘텐츠 개발

- 디지털 누리 서비스를 위한 유 아용 몰입/체험형 콘텐츠 2종 개발

- 맞춤형 학습 적용 파일럿 테스 트 1건 완료

시나리오

콘텐츠 정상

(5)

Ⅰ-2 해당 연도 추진 실적 (1) 당해연도 추진계획 및 실적

<계획대비 실적 : 정량적 목표 항목>

<계획대비 실적 : 정량적 성과 항목 (달성치/목표치)>

평가 항목

(주요성능 Spec) 단위

세계최고 보유국/

보유기업

연구개발 국내수준

개발 목표치

개발

성과치 달성율

평가 방법

성능수준 성능수준

2차 년도 (2015년)

2차 년도 (2015년)

2차 년도 (2015

년) 1. 실공간 객체 세그멘테이션

및 인식 대상 수 미국/PCL

5개 1개 5개 9개 180% 공인시험

성적서

2. 실공간 객체 변형 대상 수 - - 3 4 133% 공인시험

성적서 3. 학습자 추출 정확도

(F-measure) % 미국/MS

82 85 91 94 103% 공인시험

성적서 4. 협력 학습 지원 체험형

콘텐츠 저작 에뮬레이션 수준 캐나다/EON 마우스 기반

마우스 기반

마우스 기반

마우스

기반 100% 공인시험

성적서

5. 동시 인식 가능 학습자 수 미국/MS

2 2 8 8 100% 수요기업

평가 6. 동시 인식 가능 의사 표현

미국/MS

10 10 15 15 100% 수요기업

평가 7. 전문가 추천 대비 학습 콘

텐츠 추천 정확도 % - - 50 80.6 160% 공인시험

성적서

8. 학습 성취도 향상 % 미국/

Knewton7 - 3 3.93 131% 수요기업

평가 9. 맞춤형 콘텐츠 적용

교육장 수 - - 1 1 100% 수요기업

평가

구분

특허 논문

기술 이전

상용화 (백만원)

기술료 (백만원)

성과

홍보 시제품 S/W 등록

기술 문서

국제 국내

SCI (E)

비SCI 출원

(건) 등록

(건) 출원

(건) 등록

(건) 국제 국내

2차년도

(2015년) 4/3 0/0 7/4 0/0 2/1 9/4 4/4 4/3 245/500 240/100 9/2 3/1 14/12 43/20 달성율

(%) 133% - 175% - 200% 225% 100% 133% 49% 240% 450% 300% 117% 215%

(6)

계획 추진실적

1. 공간증강 인터랙티브 방송 /VOD 시스템 기술 개발

¡ 공간증강 인터랙티브 VOD 시스템 V1.0 개발 - 실공간 인식 및 세그멘테이션 기능 지원 - 공간 인식 기반 증강현실 기능 지원 - 실공간 다수 객체 변형 증강현실 기능 지원 - 가상 콘텐츠 실공간 적응형 시뮬레이션 지원 - 사용자 제스쳐 인식 모듈 추가

- 실시간 메쉬 생성 기능 구현

- 최신 엔진 (Unity 5) 및 64bit로 시스템 업그레이드

2. 공간증강 인터랙티브 방송 /VOD 저작 도구 개발

¡ 공간증강 인터랙티브 VOD 저작도구 V1.0 개발 - 공간증강 인터랙티브 시스템 저작기능 지원 - 공간인식 모듈 메뉴얼 보완 기능 지원 - 가상공간/실공간 정합 기능 지원 - Unity 3D 플러그인 기능 제공

3. 실공간 세그멘테이션 및 객체 변형 기술 개발

¡ 실공간 인식 및 세그멘테이션 기술 개발

- 총 9종의 깊이 정보를 활용한 학습공간의 공간 세그멘테이션 기 능 구현 (바닥, 벽, 천장, 테이블, 사람 등)

- 실시간 동적객체(사람) 3차원 모델링

- 동적 객체(사람) 실시간 메쉬 Collision 기능 구현 ※ 통합 구동 시 실시간 성능

항목 목표(개) 실적(개)

세그멘테이션 객체 수 5 9

(7)

¡ 실공간 변형 증강현실 기술 개발

- 총 4종의 실제 객체에 가상의 효과를 적용/형태를 변형하는 증강 현실 기술 구현 (바닥, 천장, 벽면, 학습 공간)

- 실시간 동적 객체 충돌 표현 ※ 통합 구동 시 실시간 성능

항목 목표(개) 실적(개)

실공간 객체 변형 대상 수 3 4

4. 객체 시뮬레이션 및 인터랙션 기술 개발

¡ 실공간 적응형 증강현실 객체 시뮬레이션 기술 개발

- 총 3종의 객체에 시뮬레이션 기술 구현 (가상콘텐츠 그림자, 광 원, 이동궤적)

※ 통합 구동 시 실시간 성능

항목 목표(개) 실적(개)

객체 시뮬레이션 효과 수 3 3

¡ 학습 환경에서의 공간증강 인터랙션 기술 개발 - 총 11종의 물리엔진 연동 인터랙션 개발 - 사용자 제스쳐 및 포스쳐 인식 기술 개발 - 공간증강 시스템 실시간 연동

※ 통합 구동 시 실시간 성능

항목 목표(개) 실적(개)

인터랙션 기능 수 5 11

(8)

5. 독립 구동 체험형 학습 시스템 고도화

¡ 플러그인 기반의 3D 엔진 교체 및 콘텐츠 구조 개발

¡ 유치원 적용을 위한 시스템 요구사항 구현 - 학습자 영상 분리 구현

- 손마우스/제스쳐 인식을 통한 학습자-가상객체 인터랙션 구현 - 소리 인식 플러그인 구현

¡ 플러그인 기반의 독립 구동 체험형 학습 시스템 v2 구현 ※ 성능

항목 목표(fps) 실적(fps)

체험형 학습 시스템 구동 속도 20 15

6. 다중 시스템 연동 협력 체험형 학습 시스템 설계

¡ 영상, 학습 이벤트, 학습 정의 데이터 송수신 프로토콜 및 다중 시 스템 연동 모듈 요구사항 정의

¡ 네트워크 협력 지원 체험형 콘텐츠 메타데이터 분석

¡ 원격 지원 및 자동 업데이트 기능 분석

(9)

7. 다중 시스템 연동 협력 체험형 학습 저작 시스템 설계

¡ 템플릿 기반 이벤트 저작 기능 제공

¡ GUI, 메뉴선택 타입의 인터랙션 저작 인터페이스 요구사항 분석

¡ 다수 학습자 협력 인터랙션 저작 및 서비스 구조 정의

8. 배경, 의상에 강인한 다수 학습자 영상 추출 기술 개발

¡ 학습자 영상 떨림 현상 개선 및 외곽선 보정 알고리즘 개발 및 최적화

¡ 도서관, 유치원 사용자 영상 DB 구축 및 영상 레이블링 수행 (총 3,881 프레임)

(10)

9. 사용자와 동기화된 가상 아바타 기술 연구

¡ 사용자와 동기화된 가상 아바타 및 오브젝트 제어 연구

- 가상 아바타와 사용자의 현실감 있는 표현을 위한 렌더링 기법 - 세그멘테이션 영역을 토대로 가상 아바타 피팅

- 인식 노드의 노이즈 및 손실로 인해 비틀리는 가상 아바타 부분 보정

¡ 사용자와 동기화된 오브젝트 시나리오 개발

- 사용자와 동기화된 오브젝트 기술 연구를 위한 시나리오 개발 및 적용

10. 창의 학습 콘텐츠 추천 기술 연구

¡ 학습자 수준 진단 기술 개발

- 인지 진단 모형을 기반으로 학습자 수준 진단 문제를 학습자의 각 개념별 이해도 추정 문제로 구체화

- 학습자-개념-문제 연결 관계를 이용하여 학습자의 단일 테스트의 결과로부터 개념별 학습자 수준 진단 지원

¡ 학습자 수준 진단 업데이트 기술 개발

- 여러 시험의 누적 정보를 활용하여 수준 진단 결과의 업데이트 방법 개발

- 학습자의 개념별 이해도 변화 확인 가능

- 테스트 결과 정보를 response bank에 누적하여 학습자 개념별 이해도와 문제 특성 파라미터를 보다 정교하게 추정

(11)

¡ 학습 콘텐츠 추천 기술 개발

- 문제-개념-강의 매핑 기반으로 해설 콘텐츠 추천 - 그룹 응답 결과 분석에 기반을 둔 학습자 수준 및 문제 파라미터 동시 추정 에 의해 보다 정교한 학습 콘텐츠 추천

¡ 학습자 수준에 맞는 시험 문제 자동 구성 개발 - 인지 진단 모형으로 학습자의 개별 능력치 추정

- 완료 기준 설정으로 인터랙티브한 문제 풀이 학습 진행 - 완료 기준에 도달하지 못하는 등 예외적인 경우까지 고려하여

시험 문제 자동 구성 ※ 성능

항목 목표(%) 실적(%)

전문가 추천 대비 학습 콘텐츠 추천 정확도 50 80.6

(12)

11. 창의 학습 에이전트 기술 연구

¡ 맞춤형 학습 데이터베이스 개발

- 각 개념 별로 실수 값을 갖는 다중 차원의 벡터로 학습자 모델링 - 시간에 따른 학습자 능력 변화 고려

- 교육 콘텐츠DB, 학습자DB, 개념DB, 문제DB, 시험DB구현 - 개념 중심의 문제-개념, 강의-개념 관계 모델링

- 문제별 다중 개념, 강의별 다중 개념, 난이도로 세분화된 개념 고려

¡ 관리 엔진 개발

- 학습 수행 결과 모니터링 및 진단 결과 출력 개발

- 학습자 개별 시험 결과에 따라 보충 학습 진행 여부를 피드백 받는 시스템 개발

- 학습 디바이스와 서버 간 연동 기능 구현

- 각 반별 학습자의 학습 수행 결과 확인 기능 구현

¡ 맞춤형 튜터링 뷰어 개발

- 맞춤형 학습 시스템 페이지 설계

- 반별 시험 응시가 가능하도록 관리자 및 학습자 페이지 개발

(13)

- 개념 중심의 학습 상황 및 실력 진단이 가능한 러닝맵 개발 - 보충 학습 대상 학생이 시스템에 접속하면 개인별 취약 개념에

대한 강의 및 문제 추천

- 시공간에 관계없이 맞춤형 시스템에 접속하면 학습 이력에 따라 취약한 개념에 대해 완전 학습할 수 있는 강의와 문제 제공

※성능

항목 목표 실적

학습 성취도 향상 3% 3.93%

학습 콘텐츠 규격 호환 가능한 교육장 수 1개 1개

12. 콘텐츠 개발 및 서비스 사업화

¡ 디지털 누리 몰입/체험형 콘텐츠 개발 및 사업화

- 디지털 누리 서비스를 위한 유아용 몰입/체험형 콘텐츠 시나리오 기획 5종(‘세계 여러 나라’, ‘나와 가족’, ‘우리 동네’ 등)

- 유아용 몰입/체험형 콘텐츠 2종 제작(‘세계 여러 나라’ 몰입형/

체험형 각 1종)

- 시범 서비스 유치원 선정 및 디지털 누리 사업화 설명회 개최 (‘15.11.03.)

- 스마트 디지털 클래스 사업 설명회 개최(‘15.12.05.)

(14)

¡ 융합인재 교육 콘텐츠 4종 개발

- 창의 공간 놀이터 콘텐츠 개발 (창조경제박람회 VIP 시연

‘15.11.26-29)

- ㈜K3I 기술이전을 통한 국립중앙과학관 화성탐사 콘텐츠 서비스 (‘16.1)

- ㈜쏠리드에듀와 ETRI간 NDA를 통한 대구과학관 시범서비스 (‘15.12)

- 유아용 안전교육 콘텐츠 개발 (지진체험)

¡ 공간증강 인터랙티브 방송/VOD 콘텐츠 개발 및 시범 서비스 - 가상 스튜디오 적용 공간증강 인터랙티브 콘텐츠 개발

(EBS ‘딩동댕 유치원’ 프로그램 방송 ‘15.12.22)

¡ 맞춤형 학습 시스템 사업화

- 파일럿 테스트 학원 선정(박상준어학원) (‘15.8) - 학원 수업에 맞는 시나리오 개발 (‘15.10) - 파일럿 테스트 진행 (‘15.12)

- 비교군 대조군 학습 효과성 실험 연구 (‘16.1)

(15)
(16)

(2) 당해연도 추진 주요 결과물

계획 추진실적

¡ 공간증강 인터랙티브 시스템 ¡ 공간증강 인터랙티브 방송/VOD 시스템 V1.0 개발 - 실시간 3D 메쉬 생성 기술

- 실공간 인식 및 세그멘테이션 기술 - 사용자 제스쳐 인식 기술

- 공간증강 인터랙티브 저작도구 V1.0 - 가상공간/실공간 정합 기능

<공간증강 시스템>

<공간증강 시스템 저작도구>

¡ 원격 협력 지원 체험형 학습 서비스 시스템

¡ 독립 구동 체험형 학습 시스템 V2 - 3D 엔진 교체 및 콘텐츠 구조 개발

- Full HD 학습자 영상 정합 실시간 지원 (HD -> Full HD) - 체험형 학습 시스템 최적화 (10 fps -> 15 fps)

- 사용자 제스쳐 인식 및 음성 인식 기술 적용

<독립 구동 체험형 학습 시스템 V2>

(17)

¡ 독립 구동 체험형 학습 콘텐츠 저작 도구 V2 - 가상 아바타 기반 콘텐츠 프리뷰 지원 - 템플릿 기반 이벤트 저작 지원

- 저작도구를 통한 플러그인 옵션 변경 지원

<독립 구동 체험형 학습 콘텐츠 저작 도구 V2>

¡ 맞춤형 창의 학습 튜터링 엔진 ¡ 개인 맞춤형 학습 시스템

- 인지 진단 모형 기반의 학습자 수준 진단 기술

- 지속적인 파라미터 업데이트를 통해 데이터가 쌓일수록 진단 정확도 향상

- 개념 중심의 체계적인 문제-개념-강의 매핑 형태의 DB 구현 - 학습자 수준 진단 결과를 이용한 콘텐츠 추천 및 자동 시험지

구성

- 학습자 모델링 및 문제 모델링

¡ 학습 관리 시스템 개발

(18)

(3) 당해연도 실적 세부 설명

가. 공간 인식 및 증강 현실 기술 기반 방송 콘텐츠 기술

(가) 공간증강 인터랙티브 방송/VOD 시스템

¡ 공간증강 인터랙티브 VOD 시스템 V1.0 - 전체 시스템 구조

<공간증강 인터랙티브 시스템 기능도>

<공간증강 인터랙티브 시스템 구성도>

-

(19)

- 공간증강 인터랙티브 VOD 시스템(ESAR)은 크게 VOD 제어 모듈, 인터랙션 모듈, 공간증강 인터랙 티브 엔진, 공간증강 인터랙티브 VOD 재현 모듈로 구성

- 기능별 구성

• 실제공간에서 추출된 RGB-D 데이터를 근거로 실제공간의 구조(바닥, 벽 등의 구조)를 인식 • 인식된 공간 구조에서 객체의 영역을 분리한 후 분리된 영역의 객체를 인식하여 3차원 정보를 추출 • 정의된 시나리오에 맞추어 변형하며 가상 3D 객체를 증강시켜 사용자와 가상객체 및 실객체 간의

인터랙션을 지원

• 위의 모듈을 통합한 VOD를 구성하는 VOD 시스템 제어기능

¡ VOD 제어 모듈 - 주요 기능

• 외부로부터 스트리밍 영상을 디스플레이로 출력

• VOD를 trigger할 수 있는 외부인터페이스와 연동하여 VOD를 실행시키는 기능 수행 • VOD 메뉴를 화면에 출력하여 사용자와의 인터랙션 기능

• 저장된 콘텐츠 DB로부터 목적에 맞는 콘텐츠를 디스플레이 뷰어에 출력

<VOD 제어모듈 기능도>

(20)

<VOD 실행 화면>

¡ 인터랙션 모듈 - 주요 기능

• 인터랙션 모듈은 depth영상과 사용자의 관절 정보(skeleton)를 입력 받아, 사용자의 3차원 공간 정보, 동작 인식 기능 지원

• 콘텐츠의 가상 객체들과 사용자간의 다양한 상호작용을 처리

• 사용자 3차원 위치정보 처리 모듈, 3D 객체 터치 및 잡기 모듈, 3D 객체 밀어내기 모듈로 구성

<VOD 제어모듈 기능도>

(21)

<공간증강 콘텐츠 재현 화면>

¡ ESAR 엔진

- 공간증강 인터랙티브 시스템 (ESAR)의 엔진은 크게 영상보정, 객체 세그멘테이션, 객체인식, 3D 모 델 추출, 객체 변형, 객체 시뮬레이션, 객체 추적, Scene Completion 부분으로 구성

- 주요 기능

• 영상 보정 기능 : RGB-D 디바이스로부터 입력되는 RGB 영상과 깊이 영상을 보정하고 RGB 영상 과 깊이 영상의 Homography를 계산하여 두 카메라의 시점을 정합

<RGB-D 영상 보정 프로세스>

• 객체 세그멘테이션 기능 : 실 공간의 전체적인 구조를 인식하며 평면 모델을 기반으로 공간 구조의 3D 자세정보를 추출

• 객체 인식 기능 : 세그멘테이션 과정에서 얻은 영역이 콘텐츠에서 필요로 하는 객체(primitive object)인지를 인식

<Convolutional Neural Network를 이용한 객체 인식 단계>

(22)

<객체 세그멘테이션 프로세스>

• 3D 모델 추출 기능 : 세그멘테이션 및 인식 된 객체에 대한 3차원 모델 추출 지원

<3차원 모델 복원 흐름도>

(23)

• 객체 변형 기능 : 3D 모델 추출 모듈의 결과를 이용하여 실제 객체에 다양한 변형 증강현실 효과를 적용

<실제 객체에 변형 효과 적용 예시>

• 객체 시뮬레이션 기능 : 가상객체 이동궤적, 광원효과, 그림자 효과 등의 시뮬레이션 효과 표현 지원

¡ ESAR 재현 시스템

- ESAR 재현 시스템은 3D 엔진을 사용하여 콘텐츠 재현에 필요한 scene 구성, 콘텐츠 처리 및 재생, 그리고 랜더링 부분을 수행

- 주요 기능

• 공유메모리를 사용하여 ESAR 엔진, 인터랙션 모듈 및 VOD 제어 모듈과 ESAR 재현 시스템간의 실시간 데이터 통신 지원

• 실시간 메쉬 데이터 생성 및 제어 기능 지원 • 학습자 스켈레톤 정보 제어 기능 지원

<공유메모리를 통한 정보교환>

(24)

<실시간 메쉬 데이터 제어>

¡ ESAR 저작도구 - 주요 기능

• 3D엔진에 공간증강 인터랙티브 시스템을 적용시켜 사용자가 편리하게 공간증강 시스템을 저작할 수 있는 기능을 제공

• 공간증강 시스템의 기본 특성인 공간을 인식하는 기능과 그에 따른 부가적인 기능들을 플러그인 형태로 제공

<공간증강 시스템 저작도구>

(25)

¡ 공간증강 인터랙티브 시스템 고도화 - 제스쳐 인식 모듈 지원 (기계학습 기반) • 11종의 제스쳐 인식 기능 지원

(양팔 좌우로 펴기, 양팔 흔들기, 두손 들기, 두손 들고 주먹쥐기, 몸을 쭈그리고 앉기, 두손 모으 고 앞으로 내밀기, 점프, 왼팔피고 주먹쥐기, 왼손들고 주먹쥐기, 한손 들기, 오른팔 피고 주먹쥐 기, 왼손들고 주먹쥐기)

<제스쳐 인식 결과>

(26)

- 3D 엔진 교체 및 64bit로 시스템 업그레이드로 인한 콘텐츠 재현 기능 향상

<3D 엔진 구버전에서 콘텐츠 재현>

<최신 3D엔진 버전에서 콘텐츠 재현>

(27)

(나) 공간증강 인터랙티브 VOD 저작 기술

¡ 공간증강 인터랙티브 VOD 저작 기술 개발

- 공간증강 인터랙티브 시스템 저작도구는 3D엔진에 공간증강 인터랙티브 시스템을 적용시켜 사용자 가 편리하게 공간증강 시스템을 저작할 수 있는 기능을 제공

- 공간증강 시스템의 기본 특성인 공간을 인식하는 기능과 그에 따른 부가적인 기능들을 플러그인 형 태로 제공

- 주요 기능 및 구성

• 상세 구조 및 기능 설명

(28)

저작도구 이름 기능 ARSpaceRoot 모든 클래스들의 기본이 되는 루트

EsarMediator kinect에서 받아들인 정보를 Unity에서 받아들일 수 있게 해주 는 모듈

SharedMemory kinect에서 받아들인 정보를 ESAR 프로그램에서 받아들이고 그것을 Unity와 주고 받을 수 있게 해주는 역할의 전송 모듈 ARSpaceCompositor 저작도구를 사용하는데에 필요한 기능들을 제어하는 역할 RearCamera kinect에서 불러오는 실제 카메라 영상

SpaceMeshCompositor kinect에서 불러오는 Depth&Mesh 값을 제어하는 클레스 RearObejctTable 실제 Table 오브젝트를 구분하여 생성하는 역할

RearObejctCube 실제 Cube 오브젝트를 구분하여 생성하는 역할 kinectUserManager 사용 유저를 표현하는 클래스

SkeletonController 사용유저의 스켈레톤 값을 컨트롤하는 클래스

VirtualObejctManager 저작도구에서 추가되는 가상의 오브젝트들을 관리하는 클래스

VOGroup 가상 오브젝트들의 그룹

VO_base 가상 오브젝트들의 기본이 되어 상속되는 클래스

<공간증강 시스템 저작도구 기능 설명>

¡ 공간증강 시스템 연동 기능

- 공간증강 인터랙티브 VOD 시스템과 연동하여 RGB-D, 3D 실공간 메쉬, 실공간 인식 정보 등을 저작도구 상에서 생성 및 수정 지원

- 실공간 정보 및 가상 객체 정보들을 Hierarchy로 구성하여 콘텐츠 저작을 직관적으로 할 수 있도록 지원

<공간증강 시스템 저작도구>

(29)

<공간증강 시스템 저작도구 플러그인>

<저작도구 상의 공간증강 콘텐츠 저작> <공간증강 객체 Top Hierarchy>

(30)

저작도구 이름 주요 기능 Create ARSpace 공간증강 시스템을 생성

Color Camera 컬러 영상을 출력 Depth Meshes PCL 메쉬를 생성

Mesh Update Interval PCL 메쉬의 업데이트 간격을 지정

Mesh Update Time PCL 메쉬가 정적일 경우 초기 몇 초만 업데이트 하도록 지정할 수 있는 기능

Create Skeleton

Controller 사용자를 kinect에서 인식할 수 있도록 설정 Load Depth Mesh kinect에서 인식된 메쉬를 로딩

Load Real Camera kinect의 실제 카메라 화면을 로딩

Load Game Object 저작도구의 중심이 되는 Table 오브젝트 로딩

<저작도구 주요기능>

¡ 가상 객체 및 시뮬레이션 객체 편집 기능

- 2D/3D 가상 객체 및 실 객체(실 공간 메쉬, RGB-D) 배치 및 편집 기능 - GUI와 스크립트를 통한 객체 편집 기능 제공

<가상 씬 저작> <가상 객체 및 시뮬레이션>

(31)

저작도구 이름 주요 기능 Scene

Add/Delete 기존의 만들어진 오브젝트 Scene들을 불러와 Scenes 오브젝트에 추가 Scene Select 현재 추가된 Scene의 목록

Change Scene Scene Select 목록에서 버튼을 클릭하여 현재 적용된 신에 적용 GameObejct 동물, 물, 비, 토네이도, 바람, 구름 등 가상 환경 객체 추가

Active

GameObject 현재 추가된 오브젝트 목록

Deformation 가상공간에 추가된 오브젝트들을 실시간으로 크기나 모양이 변형이 가능하도록 매쉬를 변경하는 스크립트를 추가

<저작도구 주요기능>

¡ 가상객체 인터랙션 저작 기능

- 2D/3D 가상 객체와 실 객체(실시간 메쉬) 충돌 인터랙션 저작 기능 제공 - Scene별 학습자 포스쳐/제스쳐 인터랙션 저작 기능 제공

<학습자 인터랙션 편집>

(32)

(다) 실공간 세그멘테이션 및 객체 변형 기술 개발

¡ 깊이 정보를 활용한 학습공간의 공간 인식 기능 구현 고도화 - 총 5종의 객체에 대한 공간 인식 (바닥, 벽면, 천장, 테이블, 박스)

- 실공간의 Depth 영상을 입력 받아 평면 객체들을 추출하고 평면들을 대표평면(바닥, 벽면, 천장, 테이블) 단위로 구분

• Depth 카메라 입력영상 모듈에서 카메라로부터 실내 공간의 Depth 영상을 입력 받고, 3차원 데이 터의 연산을 위해서 실내 공간의 Depth raw data를 3차원 상의 Point cloud 정보(x, y, z)로 변환 • 변환한 Point cloud 정보는 Point cloud normal vector 추출 모듈에서 각각의 Point cloud에 대

한 Normal vector를 구하여 저장

• Normal vector를 이용하여 RANSAC을 통해 평면 정보 (Plane model coefficient, 평면 Point cloud index, Plane centroid)를 추출

- 대표평면의 고유 정보 (Plane model coefficient)를 이용하여 대표평면을 좀 더 정확하게 구분하는 공간 대표평면 Labelling 프로세스 수행

• 실공간의 Contextual knowledge를 이용하여 바닥, 뒷 벽면, 천장을 구분

• 바닥 평면을 알아내기 위해서 카메라의 벡터와 평면의 Normal vector를 사용자가 지정한 임계 값(Threshold)을 비교하여 1차 분류

- 대표 평면의 Point cloud로부터 최소의 넓이를 갖는 사각형을 추출(Minimum Bounding Rectangle)을 추출하여 3차원 자세 추정 수행

<학습 공간 인식 프로세스>

(33)

<실공간 인식을 위한 공간 구성도>

<실공간 인식 결과>

¡ 실공간 객체 세그맨테이션 기술 개발 및 고도화 - 총 9개의 객체에 대한 세그멘테이션 기능 지원

- 실 공간 구조 인식을 수행한 후 각 평면정보를 제외한 Point cloud를 대상으로 객체 세그멘테이션 (Euclidean distance clustering)을 수행

<실공간 세그멘테이션>

(34)

¡ 객체 변형을 위한 박스형 객체 인식 기능 구현

- 실공간 인식 및 세그멘테이션 프로세스를 통해 실공간 객체정보 획득 - 실공간 객체 정보로부터 박스형 객체 분리

• 카메라 뷰에 따라 2개 혹은 3개의 평면이 직교하는 성질을 이용하여 박스형 객체 분리 - 박스형 객체의 Point cloud 에 미리 정의한 육면체 모델을 정합

<박스형 객체 인식>

¡ 실공간 다수 객체 변형 증강현실 기술 개발

- 실공간 인식 정보 (바닥, 벽면, 테이블, 박스형 객체)를 이용하여 가상의 효과를 실제 객체에 적용하는 실공간 변형 증강현실 기능 개발

- 실공간 인식 정보 (3차원 자세정보, 객체 평면 정보)를 이용하여 다양한 변형 효과 (물결, 안개, 바위, 갈라짐 등) 지원

<바닥, 천장 변형 효과 적용>

<바닥 변형 효과 적용>

(35)

<박스, 뒷 벽면 변형 효과 적용>

¡ 정량적 성능

항목 목표(개) 실적(개)

세그멘테이션 객체 수 5 9

실공간 객체 변형 대상 수 3 4

(36)

(라) 객체 시뮬레이션 및 인터랙션 기술 개발

¡ 실공간 적응형 증강현실 객체 시뮬레이션 기술 개발 - 가상 객체 그림자 효과 표현

• 가상객체의 그림자를 현실감 있게 보이기 위해서 실공간의 3차원 정보를 반영하여 3차원 왜곡효과 표현

- 실공간 광원 효과 표현

• 가상객체의 위치 및 자세에 따라 광원효과를 실시간으로 반영하여 콘텐츠에 표현

- 가상 객체의 적응적 이동궤적 표현

• 3D 객체의 이동/배치 상황을 실공간에 알맞도록 실시간으로 변환 지원

• 콘텐츠 저작 시 지정한 3D 객체의 이동/배치 가상 경로와 가상 기준점 정보를 활용하여 실공간에 알맞은 3D 경로 수정 지원

• Euclidean transformation을 이용하여 가상 경로의 각 지점을 실공간에 맞게 변형하여 가상객체 이동궤적을 생성

<가상 객체의 그림자 효과 표현> <가상 객체의 광원 효과 표현>

<가상 객체의 이동궤적 표현>

¡ 학습자 제스쳐/포스쳐 인터랙션 기술 개발 - 총 9종의 학습자 제스쳐/포스쳐 인식 지원

• 기계학습을 통한 학습자의 제스쳐/포스쳐 동작 학습 지원

• 총 9종 (양팔 좌우로 펴기, 양팔 흔들기, 두손 들기, 두손 들고 주먹쥐기, 몸을 쭈그리고 앉기, 두 손 모으고 앞으로 내밀기, 점프, 왼팔피고 주먹쥐기, 왼손들고 주먹쥐기, 한손 들기, 오른팔 피고 주먹쥐기, 왼손들고 주먹쥐기)

(37)

구분 학습자 제스쳐 영상 학습자 제스쳐 인식 영상

Right Hand Up Close

Left Hand Up Close

Both Hand Up Close

Right Arm Spread Hand Close

Left Arm Spread Hand Close

Jump

(38)

¡ 정량적 성능

항목 목표(개) 실적(개)

객체 시뮬레이션 효과 수 3 3

인터랙션 기능 수 5 11

Both Hand Wave

Both Hand Up

Both Arm Spread

(39)

나. 원격 협력 지원 체험형 학습 서비스 기술

(가) 독립 구동형 체험형 학습 시스템 고도화

¡ 3D 엔진 교체 및 이에 따른 콘텐츠 구조 개발 - 새로운 3D 엔진에서 활용 가능한 기능별 모듈 개발

- 다양한 플랫폼 호환 및 편리한 인터페이스를 지원하는 Unity3D 게임 엔진 기반의 솔루션으로 변경 - 교사 제어 창 제거 및 새로운 UX를 통한 콘텐츠 동작 지원

- 콘텐츠의 자유도를 제한하지 않도록 콘텐츠 구조 개발

¡ 독립 구동 체험형 학습 시스템 최적화 완료 - Full HD 학습자 영상 정합 실시간 지원 (25 fps)

- 독립 구동 체험형 학습 시스템 구동 속도: 10 fps -> 15 fps

¡ 정량적 성능

항목 목표(fps) 실적(fps)

체험형 학습 시스템 구동 속도 20 15

¡ 유치원 적용을 위한 시스템 요구사항 개발

- 사용자 영상 분리 및 소리 인터랙션 개발 (음성 인식 기술 적용)

<Kinect를 이용한 음성인식 구조>

- 다양한 유치원 환경을 지원하는 캘리브레이션 기술 개발 - 손 마우스, 제스쳐를 통한 메뉴 선택 등의 새로운 UX 개발

• 사용자 인터랙션 구현(던지기, 북치기, 터치하기, 물 맞기 등 4가지)

(40)

<사용자 인터랙션: 북치기, 물 맞기>

<사용자 인터랙션: 가상객체 던지기>

<사용자 인터랙션: 가상객체 터치하기>

• 사용자 동시 인식 기능 구현(8명)

<사용자 동시 인식>

(41)

- 사용자 팔의 중심축을 기준으로 팔의 이동 각도에 따른 던지기 제스쳐 인식 기술 구현 (좌/우로 가상 객체 던지기 가능)

• 사용자에 의해 가상 객체가 던져질 때, 가상 객체의 이동 방향이 좌측 혹은 우측인지에 대한 판단은 사용자의 제스쳐 이벤트가 인식 된 순간의 오른쪽 손 위치가 오른쪽 어깨보다 오른 쪽에 있으면 오른쪽 이동 판정을 내리고, 왼쪽에 있으면 왼쪽 이동 판정

<가상 객체 던지기 제스쳐 인식 기술 구현>

<고도화된 독립 구동형 체험형 학습 시스템>

(42)

(나) 다중 시스템 연동 협력 체험형 학습 시스템 설계

¡ 영상, 학습 이벤트, 학습 정의 데이터 송수신 프로토콜 및 다중 시스템 연동 모듈 설계 - 멀티 플랫폼 지원 다중 시스템 연동 체험형 시스템 구조 설계

- 다중 시스템 연동 제어를 위한 제어 서버 설계

- UDP 또는 TCP 기반의 인터넷 프로토콜을 이용한 학습자 영상 객체 송수신 네트워크 인터페이스 구조화

• 송/수신 데이터 사이즈를 줄이기 위하여 local에서 압축 및 전송하고 remote에서 수신 및 해제하는 구조 정립

<다중 시스템 연동 협력 체험형 학습 시스템 구조>

<다중 시스템 연동 협력 체험형 학습 시스템 설계>

¡ 원격 지원 및 자동 업데이트 기능 지원

- 제어 대상 가상 객체인 remote space상의 시스템 네트워크 감지 기능 - 제어 대상 가상 객체 정보 획득 및 정보 출력 기능

(43)

(다) 다중 시스템 연동 협력 체험형 학습 저작 시스템 설계

¡ 가상 아바타 기반 콘텐츠 프리뷰 지원

- kinect 카메라 위치, 사용자 위치, 사용자 키를 자유롭게 조절하며 콘텐츠를 저작 중 확인해볼 수 있는 프리뷰 기능 지원

<가상 아바타 기반 프리뷰>

¡ 템플릿 기반 이벤트 저작 지원

- 이벤트 종류 별 템플릿 스크립트 지원

- 템플릿 스크립트의 속성 변경을 통한 간단한 이벤트 저작

- 템플릿 기반 이벤트(터치, 던지기)에 대해 이벤트 에뮬레이션 지원

¡ GUI, 메뉴 선택 형태 인터랙션 저작 인터페이스 지원 - 편리한 GUI형태의 다양한 모듈 지원 기능 구현 - 메뉴 선택으로 해당 옵션 창의 활성화 및 비활성화

<GUI 형태 모듈 지원 인터페이스>

(44)

¡ 다수 학습자 협력 인터랙션 저작 및 서비스 구조 정의

- 다양한 멀티 플랫폼 환경에서 원격지 간의 인터랙션 이벤트 지원 구조 설계

- 원격지에서 모바일 기기를 통해 접속하여 체험형 학습의 진행 상황을 확인하고 상호간 인터랙 션이 가능한 서비스

<다중 시스템 연동 협력 체험형 학습 시스템 서비스 구조>

(라) 배경, 의상에 강인한 다수 학습자 영상 추출 기술 개발

¡ 깊이 영상을 활용하는 칼라 영상 중심의 세그멘테이션 알고리즘 개발

- 별도의 배경 학습 없이 학습자를 추출할 수 있는 강인한 학습자 영역 추출 알고리즘 개발 • 입력데이터: 512X424 깊이 영상 & 1920X1080 칼라 영상 데이터

• 출력데이터: 1920X1080 Mask 데이터

<학습자 영역 추출 알고리즘 흐름도>

(45)

- 움직임이 없을 때 두드러지는 외곽 떨림 현상 해결을 위해 움직임이 없는 영역만을 찾아 temporal filtering적용(MWMA)

- 512 X 424 깊이 영상을 Full HD 영상으로 변환함으로써 발생하는 계단 현상 해결을 위해 외 곽선을 따라 poly-fitting 적용(Vectorization)

<학습자 영역 추출 알고리즘 개요>

- 학습자 영상 떨림 현상 개선 및 외곽선 보정 알고리즘 개발 및 최적화

¡ 도서관, 유치원 사용자 영상 DB 구축

- 대용량 학습자 영상에서 학습자 영역 검출 수행 완료

• 수동으로 프레임별 레이블링을 수행하여 학습자 영역 검증 자료(ground truth) 결정 • 총 3,881 프레임의 대용량 학습자 영상 객체 데이터셋 DB 구축 완료

- 학습자 영역 검증 자료를 통한 학습자 추출 기술 검증 기능 구현

• 학습자 영역 검증 자료와 학습자 추출 기술에 의한 결과물을 정성적, 정량적으로 비교/분석 할 수 있는 영상 매니저 기능 설계 및 구현(GUI)

Start

Main Dialog show

DataSet Load?

NEW DataSet Dialog

Load DataSet Dialog No

DB(MySQL) DataSet

Folder

Show Preview

Image DataSet

Folder

Want exit?

Analysis Dialog

Start Clac Precision/Recall?

Source Image exist or End ?

Calculate Dismatch

Y Show Dismatch Image &

Precision/Recall Value Back to No

Main Yes

No

Precision/Recall Value change?

Yes No

Store to DB Yes

End No No

<영상 매니저 control flow>

(46)

• 검증 자료와 기술 결과물의 오버레이 연산 처리를 통해 True/false positive/negative 화소 영역들을 각각 확인 가능

• Precision과 recall 수치 계산 값을 DB에 Save 및 Load 가능

<학습자 영역 추출 검증 도구>

¡ 도서관, 유치원의 현장 테스트를 통해 확인된 학습자 영상 추출이 어려운 배경, 의상 재질에 강 인하도록 알고리즘 개선

- 1,356 프레임의 ground truth 데이터와 세그멘테이션 알고리즘 적용 결과 데이터간의 F-measure 테스트 진행 완료

<학습자 영역 추출 결과 정확도>

- 정량적 성능

항목 목표(%) 실적(%)

체험형 학습자 추출 정확도(F-measure) 91 94.85

(47)

(마) 사용자와 동기화된 가상 아바타 기술 연구

¡ 사용자와 동기화된 가상 아바타 및 오브젝트 제어 연구

- 가상 아바타와 사용자의 현실감 있는 표현을 위한 렌더링 기법 - 세그멘테이션 영역을 토대로 가상 아바타 영역을 피팅

• 두 신체 부위가 겹치는 경우 가상 아바타를 피팅할 영역 크기를 결정할 수 없음 • 가상 아바타의 원래 크기와 변화가 가장 작아지도록 최적화

- 인식 노드의 노이즈 및 손실로 인해 비틀리는 가상 아바타 부분 보정

• 노이즈로 인한 스켈레톤 노드 떨림 현상의 temporal, spatial 필터링을 통한 보정 • 손실되거나 부정확한 노드에 대해 local PCA를 통해 outlier 제거 및 손실 부분 추론

<비틀리는 가상 아바타 관절>

¡ 사용자와 동기화된 오브젝트 시나리오 개발

- 사용자와 동기화된 오브젝트 기술 연구를 위한 시나리오 개발 및 적용

동기화된 오브젝트 동기화 부위 시나리오

가면 얼굴 사용자의 얼굴에 가면이 씌워지며 머리를 움직이

면 가면이 얼굴에 붙어있는 것처럼 움직인다.

모자 머리 사용자의 머리에 모자를 씌우며 모자가 머리의 움 직임에 따라 흔들리며 움직인다.

스파이더맨 손목

사용자 손목에 거미줄 분사기가 장착되어 있고 사 용자가 손목을 젖히면 스파이더맨처럼 손목에 있 는 기계가 작동하며 거미줄을 쏜다.

소화관(호스)

사용자가 호스를 잡고 있는 것처럼 손을 따라 움 직이며 이어진 호스들이 출렁인다. 양 손을 모으 면 호스에서 물이 분사된다.

날개 등에 날개가 붙어있으며 움직임에 따라 날개가 펄

럭인다.

하늘을 나는 신발 하늘을 날 수 있는 신발을 신고, 몸을 움직임에 따라 다른 방향으로 로켓이 분사된다.

방패 한쪽 팔 바깥 방향에 방패가 부착된다.

- 사용자와 동기화된 가상 아바타 모듈 프로토타입

• 사용자 머리에 쓰는 모자, 얼굴에 쓰는 가면 기능 콘텐츠 추가

(48)

다. 맞춤형 창의 학습 튜터링 엔진 기술

(가) 창의 학습 콘텐츠 추천 기술 연구 ¡ 학습자 수준 진단 기술 개발 □ 연구 주제의 구체화

- 인지 진단 모형을 기반으로 학습자 수준 진단 문제를 학습자의 각 개념별 이해도 추정 문제로 구체화

- 인지 진단 모형에서는 테스트 문제를 풀기 위해 필요한 배경 지식을 몇 가지의 개념으로 분류하여, 테스트의 각 문제가 사전에 정의된 개념들 중 어떤 개념들과 연관되어 있는지 Q-matrix로 표현 - 개념-문제 관계(Q-matrix)가 정의되면 학습자-개념-문제의 연결 관계를 이용하여 학습자의 테스트

결과(R-matrix)로부터 학습자의 각 개념별 이해도를 역으로 추정 가능

- 테스트 문제로부터 Q-matrix를 어떻게 정의할지의 문제보다, 이미 주어진 Q-matrix와 R-matrix 로부터 정확한 추정 결과를 얻는 문제에 초점

(49)

□ 문제의 정의

- 학습자의 개념별 이해도를 “학습자가 각 개념을 이해하고 있을 확률”로 접근하여, 주어진 테스트 결과로부터 학습자의 개념별 이해도의 사후적 확률을 최대로 하는 문제로 정의(Bayesian network)

<Problem definition>

 argmax

    

 argmax

      

  학습자의 개념별 이해도

 학습자의 테스트 결과

□ 문제의 모델링

- 학습자가 문제를 푸는 의사 결정 과정을 DINA(Deterministic Input Noisy And gate)로 모델링 - 학습자가 문제에 대한 반응이 정답이기 위해서는 해당 문제를 푸는데 필요한 모든 개념(Q-matrix

로부터 확인 가능)들을 전부 알아야 한다고 가정

- 학습자가 주어진 문제를 푸는데 필요한 개념 모두를 알고 있음에도 불구하고 해당 문제를 실수로 틀릴 확률(slip rate)과, 반대로 문제를 푸는데 필요한 개념이 한 개라도 부족함에도 불구하고 해 당 문제를 찍어서 맞출 확률(guess rate)을 문제 파라미터로 설정

□ 문제의 해결 방법

- 정의된 문제로부터 다수 학생의 개념별 이해도와 문제별 문제 파라미터를 추정해야 하는데, 변수 의 수가 너무 많기 때문에 closed form으로 나타나기 어려움

- 위의 문제를 푸는 방법은 크게 2가지로, EM(Expectation maximization) 알고리즘과 MCMC (Markov chain Monte Carlo) 알고리즘이 존재

(50)

- EM 알고리즘을 이용하여 학생의 개념별 이해도와 문제 파라미터를 동시 추정

- 학습자 수준 진단 기술이 맞춤형 학습 시스템에서 동작하는 시나리오는 아래와 같음

□ 한계점

- 다수의 학생이 동일한 테스트를 치른 결과 정보가 있어야 함

- 추정 결과의 정확도를 위하여 동일 테스트를 치른 학생 수와 테스트의 문제 수는 많아야 하고, 테스트 문제들에 이용된 개념 수는 적어야 함

- 개념 수가 늘어날수록 필요한 메모리의 양이 지수적으로 증가 - 시간의 흐름에 따른 학습자의 개념별 이해도 변화 반영 불가

¡ 학습자 수준 진단 업데이트 기술 개발 □ 기존 진단 기술의 문제점

- 학습자들은 단체 테스트로부터 추정된 각각의 취약 개념에 따라 개인화된 보충학습을 진행 - 기존 기술에서 보충학습 이후, 학습자 한 명의 취약 개념 이해도 변화를 추정하기 위해서 취약

개념이 포함된 또 한 번의 단체 테스트가 필요

- 단체 테스트를 다시 치르더라도 과거의 단체 테스트 정보는 활용 불가

(51)

□ 문제의 해결 방법

- 기존 학습자 수준 진단 기술의 Bayesian network와 DINA 모델을 확장

- 1회 또는 그 이상의 과거 단체 테스트 정보와 개별 추가 테스트 정보를 이용하여 학습자의 개념별 이해도 변화를 추정

- 학습자 수준 진단 업데이트 기술이 맞춤형 학습 시스템에서 동작하는 시나리오는 아래와 같음

□ 해결 효과

- 개별 학습자의 보충 학습 결과로 각자의 취약 개념에 대한 이해도 변화 추정 가능

- 테스트 결과 정보를 Response bank에 누적 활용하여 학습자 개념별 이해도와 문제 특성 파라미터를 보다 정교하게 추정

- 단체 테스트 없이도 개별 학습자의 보충 학습 결과에 의해 적절한 학습 콘텐츠를 추천 가능

(52)

¡ 학습 콘텐츠 추천 기술 개발

- 학습자 수준 진단 결과를 바탕으로 각 학습자별 취약 개념을 분석하여 맞춤형 보충 학습 콘텐츠를 추천 - 개념-강의 매핑 기반으로 보충 학습 콘텐츠 추천

- 학습 콘텐츠 추천은 학습자 수준 진단 결과에 따라 취약 개념을 선별 후 해당 개념에 대해 강의 및 문제를 추천하는 방식으로 진행

- 문제 풀이 결과를 다시 분석하여 인지 진단 결과를 업데이트하는 기술 개발

¡ 학습자 수준별 시험 문제 자동 구성 개발

- 인지 진단 모형으로 학습자의 개별 능력치 추정 후 취약 개념을 선별 후 개념별로 시험 문제를 DB로부터 자동 구성

- 완료 기준 설정으로 해당 개념을 마스터하였다고 판단하면 다음 개념으로 넘어가도록 하여 인터랙 티브한 문제 풀이 학습 진행

- 학생의 스케줄, 해당 개념의 어려움으로 완료 기준에 도달하지 못하는 등 예외적인 경우까지 고려 하여 시험 문제 자동 구성

참조

관련 문서

-&gt; 여기서 relation 들은 , 로 구분하고 나열된 relation 들로 Carte sian product 연산을 한다. • 결과 릴레이션은 from 절에 나열된 모든 릴레이션의

이차 개념(다른 개념에서 추상된 개념).. 수학 기초 체계와 표기를 적절한 수학적 아이디어와 관 련 짓는 능력.. 즉, 받아들이기가 관계적 이해보다 수월.. • 직관적

Pattern Outline Dot Shape 1 vertical dashed no triangle 2 vertical dashed yes triangle 3 diagonal dashed no square 4 horizontal dashed no square 5 horizontal solid no

– 컴퓨터에 기반한 교수 학습 환경은 수학적 대상과 관계의 형식적 표현을 다룰 수 있다는 점과 학습자와 컴퓨터의 상호작용을 함으 컴퓨터에 기반한 교수 학습

토끼를 무서워하는 아이에게 멀리서 토끼를 보면서 좋아하는 우유 와 쿠키를 먹게 하는 것,

○ 일반계 고등학교에 적용할 통합과학 중심의 창의적인 STEAM 수업모델 및 교수 학습 자료 개발 및 적용.. ○ 영재학급과 연계된 창의적인 STEAM 수업모델

완전한 자율 주행이 가능한 자동차가 탄생한다고 해도 자율 주행 자동차의 인지, 판단, 제어에 안전성 과 효율성, 정확성을 더욱 높이기 위한 법률적

이러한 시대에 지식 습득을 중심으로 이루어지 는 학습은 학생들의 관심과 흥미를 얻기에 부족함이 있다.. 향후 시간 특성도 반영한다.. 주행 환경 인식