• 검색 결과가 없습니다.

연구 필요성 및 목적

Ⅰ. 서론

1. 연구 필요성 및 목적

2016년, 스위스 다보스에서 제46회 세계경제포럼(이하 다보스포럼)이 개최되 었다. 다보스포럼에서 클라우스 슈밥(Klaus Schwab)은 제4차 산업혁명을 주창 하고 제4차 산업혁명과 관련된 주제와 안건을 세계 주요 기업가들과 논의하였다.

다보스포럼에 참석한 인사들은 “빅 데이터, 인공지능, 로봇공학, 사물인터넷, 무 인 운송 수단, 3D 프린팅, 나노 기술 등의 7대 분야에 걸친 기술 혁신”1)을 통해 경제구조부터 시작하여 사회, 문화, 교육 등의 전반적인 변화가 발생할 것이라고 보았다.

그로부터 4년 후인 2020년, 전 세계적으로 코로나바이러스감염증-19(이하 코 로나19)라는 신종 감염병이 확산하면서 방역과 공중보건에 비상이 걸렸다. 코로 나19는 이전의 유행병과 달리 ‘블랙스완2)’ 효과라 일컬어질 정도로 사회적 혼란 과 충격을 가져왔다. 코로나19를 종식시키기 위한 백신이나 치료제가 승인되지 못한 상황에서, 보건당국은 우선 전파경로 차단과 방역에 온 힘을 쏟았다. 이를 위해 국내외에서는 코로나19의 확산을 방지하기 위해 인공지능기술을 활용하였 다. 코로나19 알리미 앱이 개인, 단체, 기업 단위로 다수 출시되었으며, 미국이 나 유럽 등 세계 주요 나라에서 인공지능기술을 활용한 진단, 발열감지, 확진자 현황, 동선 파악 등을 알려주는 다양한 솔루션이 나오고 있다. 그뿐만 아니라 드 론, 진단 키트, 코로나바이러스 데이터 분석을 활용한 치료제 개발에도 인공지능 기술이 활용되고 있다.3)

제4차 산업혁명이 화두가 된 후 불과 5년도 되지 않아 지구적 보건 위기를 극 1) 제4차 산업혁명. https://ko.wikipedia.org. (검색일: 2020. 4. 4.)

2) 블랙스완(Black swan)이란, 절대 일어날 것 같지 않은 일이 일어나는 것을 뜻하는 말로, 미국 의 나심 니콜라스 탈레브(Nassim Nicholas Taleb)에 의해 쓰이기 시작했다. 그는 블랙스완의 속성을 세 가지로 정의하였다. 첫째, 일반적 기대 영역 바깥에 존재하는 관측값(극단값)이다.

둘째, 극심한 충격을 동반한다. 셋째, 존재가 사실로 드러나면 그에 대한 설명과 예견이 가능 하다. (블랙스완. https://m.post.naver.com. 검색일: 2020. 5. 3.)

3) 코로나와 AI 스타트업. http://www.aitimes.com. (검색일: 2020. 4. 4.)

복하는 데 인공지능기술이 널리 활용되는 현상은 인공지능기술의 발전 속도와 파 급력을 보여주는 하나의 사례라 볼 수 있다. 그러나 인공지능기술의 발전 속도와 파급력으로 인해 그것을 악용하는 사례가 발생하기도 하였다. 하나의 예가 ‘딥페 이크’(Deepfake) 기술이다. ‘딥페이크’란 인공지능기술 가운데 하나인 딥러닝 (Deep learning)과 가짜(Fake)의 합성어로 인공지능을 기반으로 한 이미지 합 성 기술이다.4) 여기서 딥러닝이란 다층구조 형태의 신경망을 기반으로 하는 머 신 러닝의 한 분야로, 다량의 데이터로부터 높은 수준의 추상화 모델을 구축하고 자 하는 기법이다.5) 딥러닝을 기반으로 한 딥페이크는 포르노 영상에 유명인이 나 일반인의 얼굴을 합성하여 디지털 성범죄 논란을 가져오기도 하고,6) 뉴스 영 상을 조작하여 마치 유명 정치인이 나와 이야기하는 듯한 가짜뉴스를 생산하기도 한다.7) 딥페이크가 적용된 영상을 보면 일반인은 구분이 힘들 정도로 정교하여 사회적으로 문제가 되고 있다. 이를 위해 딥페이크를 판별하는 인공지능 기반 딥 페이크 탐지기술이 개발되기도 하였다. 하지만 이러한 딥페이크 탐지기술이 해당 콘텐츠의 삭제 여부를 판단해줄 수 없으며, 피해자에게 이미 늦은 기술 도입이라 고 미국의 ‘MIT 테크놀로지 리뷰’는 부정적인 평가를 내리기도 하였다.8) 이처럼 명(明)과 암(暗)이 섞여 있는 인공지능기술을 활용하는 데 있어 오늘날 사회에서 는 인간에게 그에 걸맞은 책임이 요구되고 있다.

이러한 요구에 기업, 단체, 국가, 협의체 단위로 ‘인공지능윤리 헌장’을 발표하 여 인공지능기술을 활용하는 설계자, 제작자, 사용자의 올바른 윤리의식 함양을 강조하고 있다. 안나 조빈(Anna Jobin)·마르첼로 인카(Marcello Ienca)·에피 바예나(Effy Vayena)에 따르면 2019년까지 전 세계적으로 발표된 인공지능윤 리 가이드라인의 개수는 84개라고 한다.9) 이 윤리 가이드라인 중에서 책임(Res 4) 딥페이크. https://ko.wikipedia.org. (검색일: 2020. 4. 4.)

5) 딥러닝. https://terms.naver.com. (검색일: 2020. 2. 15.) 6) 딥페이크. https://terms.naver.com. (검색일: 2020. 4. 4.)

7) 가짜뉴스보다 더 무서운 가짜 동영상 ‘딥페이크’. https://news.sbs.co.kr/news. (검색일:

2020. 4. 4.)

8) 딥페이크 탐지기술, 가짜뉴스 해결사 될까?. http://www.hani.co.kr. (검색일: 2020. 4. 4.) 9) Anna Jobin·Marcello Ienca·Effy Vayena. (2019). The global landscape of AI ethics

guidelines. Nature Machine Intelligence, 1, 389-399.

ponsibility)을 다루는 가이드라인은 60개(Anna Jobin·Marcello Lenca·Effy Vayena, 2019, p. 395)로 그만큼 인공지능기술을 취급하는 데 있어 인간의 책 임이 적극적으로 요구되고 있다고 볼 수 있다. 그러나 인공지능기술과 관련된 책 임 논쟁을 살펴보면 인공지능기술로 인해 발생한 사고에 대한 책임은 누가 질 것 인지에 대한 법적 책임 문제와 인공지능기술의 운용에 있어 누가 책임을 맡을지 에 관한 기술 소유권의 문제 등이 주로 논의되고 있는 실정이다. 이러한 인공지 능기술에 대한 명확한 법적 책임 확립은 현재 발생하고 있거나, 앞으로 발생할 수 있는 문제점을 해결하고 방지하는 데 필요한 작업이다. 하지만 필자는 법적 책임을 논하기 이전에 책임의 본질은 무엇인지, 책임이 필요한 이유가 무엇인지 에 대한 고찰이 필요하다고 본다. 그 이유는 다음과 같다.

첫째, 책임의 주체에 대한 철학적 탐색이 필요하다. 예를 들어 법률상 책임의 주체는 오직 인간이었다. 하지만 2017년 영국 일간지 가디언에 의하면 유럽연합 (EU) 의회에서 인공지능 로봇의 법적 지위를 ‘전자 인간’(Electronic Personho od)으로 지정하는 결의안이 통과되었다. 이는 일상 속에서 인공지능 로봇 사용이 확산됨에 따라 법적 기틀을 마련해야 한다는 취지에서 통과된 것이다.10) 이처럼 법률상 책임의 주체에 변화가 발생하고 있는 실정이다. 만약 인간과 유사한 로봇 이 출현하게 되었을 때 우리가 인간의 고유 영역이라고 여겨지는 이성, 감성 등 의 특성은 어떻게 설명할 수 있을까? 비록 아직은 먼 미래의 이야기일지라도 이 러한 물음에 대해서 철학계에서는 다양한 관점으로 접근하고 있다. 이러한 관점 을 바탕으로 윤리적 책임의 주체를 인간으로만 볼지 인간과 로봇으로 볼지에 대 한 논란이 제기되고 있다. 책임에 대한 철학적 고찰은 법률상의 책임을 논하기 위한 배경이 되면서 책임의 주체를 이해하는 데 도움을 주기 때문에, 책임이란 무엇이고 법률적 의미의 책임과 윤리적 의미의 책임은 어떻게 다른지 살펴볼 필 요가 있다.

둘째, 사람들의 책임이 요구되는 사례가 다양한 사회현상을 통해 나타나고 있 다. 유명인사의 무책임한 행실에 대해서 여론은 비난하고 사과를 요구하고 있으 며, 특별한 책임이 요구되는 직무에 대해서는 역할의 충실한 이행을 바라고 있

10) EU, AI 로봇에 '전자인간' 지위 부여..."무조건 인간에 복종하도록 설계해야". https://biz.cho sun.com. (검색일: 2020. 5. 3.)

다. 그리고 인공지능기술 발달로 인한 직업 구조의 변화와 산업 구조의 변화로 인해 기업에서는 협업능력과 책임감을 포함한 인성을 선발 기준으로 책정하기도 한다. 특히 비대면(非對面)이 새로운 생활양식으로 화두가 되고 있는 현재, 온라 인상에서 개인의 책임 있는 자세는 더욱더 강조되고 있다. 예를 들어 개인 저작 물의 사용이 급증함에 따라 나타나는 저작권 문제, 데이터 기반의 인공지능기술 플랫폼이 확대됨에 따라 나타나는 익명의 데이터 수집 및 관리, 보안 문제 등이 있다.

이에 필자는 인공지능기술과 관련된 윤리적 쟁점, 특히 ‘책임’과 관련된 윤리적 쟁점을 중심으로 그 내용을 살펴보고, 법률적 의미의 책임과 윤리적 의미의 책임 을 비교하고자 한다. 나아가 인공지능기술을 다루는 주체에게 요구되는 행위주체 별 책임을 몇 가지로 정리해볼 것이다. 이를 위해 ‘한스 요나스(Hans Jonas)’를 중심으로 책임이론을 분석하고 그의 관점에서 인공지능기술로 인한 쟁점들을 살 펴보고자 한다.