• 검색 결과가 없습니다.

인공지능의 위험의 특성과 법적 규제방안

N/A
N/A
Protected

Academic year: 2022

Share "인공지능의 위험의 특성과 법적 규제방안"

Copied!
29
0
0

로드 중.... (전체 텍스트 보기)

전체 글

(1)

인공지능의 위험의 특성과 법적 규제방안

*1)

양 종 모

(영남대학교 법학전문대학원 교수)

【초 록】

이창호와 DeepMind의 알파고 대결은 충격적 결과와 더불어 인공지능에 대한 관심이 증 폭되는 계기가 되었다. 그 사건을 계기로 사회 각 분야에서 인공지능에 대한 갖가지 평가와 분석이 나왔다. 그런 분석 가운데는 인공지능의 위험을 과대평가하는 경우가 많고 이런 현 상은 외국도 마찬가지다. 인공지능이나 인공지능 로봇이 인간을 지배할 날이 멀지 않았다 는 것을 전제로 인공지능에 대한 적절한 통제가 필요하다는 견해를 피력하는 사람도 많다. 이러한 시점에서 인공지능에 대한 제대로 된 이해를 바탕으로 인공지능의 위험과 관련한 법적 규제방안을 검토할 필요성은 크다고 할 것이다. 인공지능은 군사용 로봇이나 휴머노 이드 형 로봇에서만 문제되는 것은 아니다. 비근한 예로 자율주행자동차는 인공지능이 체 화된 대표적 모델이지만, 산업생산 현장이나 병원의 수술실 등에도 로봇 Infra를 이용한 다 양한 형태의 로봇이 있다. 로봇이라고 하여 주행 또는 이동 기능을 꼭 수반하여야 하는 것 은 아니므로, 사물인터넷 기능과 결합한 인공지능을 기반으로 한 각종 구현 모델들은 모두 로봇이라고도 할 수 있다. 특히 첨단 군사기술 등에서 인공지능 로봇 기술이 차지하는 비중 은 빠르게 늘고 있다. 군사용 로봇은 법적 문제 외에도 민감하고도, 다양한 형태의 각종 문제를 양산한다. 이러한 시점에서 인공지능 로봇의 전제가 되는 인공지능에 대한 연구가 인공지능을 제대로 이해하지 못한 상태에서 이루어진다면 불행한 일일 것이다. 인공지능이 초래할 수 있는 위험과 관련하여 법적 규율 방안의 모색도 인공지능에 대한 심도 있는 이

* 이 연구는 2016학년도 영남대학교 학술연구 조성비 지원에 의한 것임.

(2)

해를 바탕으로 이루어져야 한다. 인공지능이나 인공지능 개발이 갖는 위험의 평가나 규율 에 있어서 인공지능 고유의 특질들을 고려할 필요가 있다.

인공지능은 두 번의 부침을 겪은 후 현재 제3세대에 접어들었다. 제1세대나 제2세대가 그리 오래 가지 못한 것은 인공지능 연구자들이나 후원자들이 애초 기대했던 성과가 나오 지 않았기 때문이다. 어쩌면 환상에 가까운 기대를 하였는지도 모른다. 현재는 제1세대나 제2세대에서 난제로 생각했던 부분들이 머신러닝의 선도적 연구자들에 의하여 해결되면서 또 다른 기대를 갖게 하지만, 현재까지의 인공지능 수준은 뚜렷한 한계가 있다. 따라서 터 미네이터와 같은 강한 인공지능이 출현하여 인류를 위협하는 상황은 요원한 일로 보인다. 따라서 인간 수준의 로봇을 전제로 로봇 윤리학, 로봇의 실존 문제 등을 다루는 논의는 성 급하다. 오히려 현재에도 활용되고 있는 약한 의미의 인공지능의 특질을 제대로 분석하고, 그 개발과정이 기존의 기술에 기초한 개발과 어떠한 차이를 보이는지를 제대로 들여다본 후, 그런 기초 위에서 그 위험의 특성에 맞는 적절한 법적 규율 방안을 논하는 것이 맞다.

본고에서는 약한 인공지능에 국한하여 그 위험의 특성을 다양한 각도에서 들여다보기로 하였다. 인공지능이나 그 개발과정의 특성을 고려하면 민․형사법적 책임 귀속을 통한 사 후적 규율만으로 부족하다. 사후적 규율 외에 개발 단계에 개입하는 사전 규율이 필요하다 고 보고 그 방안에 대하여 함께 논의하였다. 실상 인공지능이나 그 개발과정의 위험은 위험 사회라고 규정되는 현대에서도 독특하다. 그러면서도 다른 첨단과학 기술이 야기하는 위험 과 유사한 측면도 있다. 첨단과학기술 분야는 기존의 법적 체계만 가지고는 그 규율에 많은 어려움이 있다는 점에서 인공지능 규율과 유사한 것은 분명하다.

인공지능은 예측 곤란성, 자율성 등 기존의 기술에서는 볼 수 없는 많은 특질이 있다.

이러한 여러 가지 특질을 규율방안 구상의 출발 선상에 놓아야 한다. 과거 1세대나 2세대의 인공지능 관련 법적 연구는 기호학적 접근법이었다. IF THEN RULE에 따라 세상의 모든 규칙을 기호화하고, 인공지능에게 전지전능한 힘을 부여하려 하였던 제1세대나 제2세대적 인공지능 연구의 실패를 반면교사로 삼아야 한다. 2006년을 기점으로 시작된 현재의 제3세 대 인공지능은 머신러닝이라는 다분히 확률론에 기초한 의사결정이 주종을 이룬다. 사람이 일일이 지도․감독(supervise)하지 않고 기계로 하여금 스스로 학습케 하여 규칙을 창출하 는 머신러닝이 오늘날 세계인을 놀라게 한 여러 성과를 만들어내었다. 이런 시점에 인공지 능과 관련한 법적 연구가 제1세대적인 기호학적 접근방식으로 이루어진다면 시대착오적이 다. 인공지능에 대한 논의가 거의 없던 단계에서 인공지능에 대한 다양한 논의가 전개되는 상황으로의 변화는 분명 소망스러운 것이지만, 그 논의는 인공지능이나 머신러닝 등 현재 의 인공지능 부활을 가져온 이론에 대한 제대로 된 이해의 전제 위에서 이루어져야 한다. 주제어 : 인공지능, 머신러닝, 사전 규제, 법적 책임, 예측 곤란성, 자율성.

(3)

【차 례】

Ⅰ. 서론

Ⅱ. 인공지능의 활용증가와 법적 규율의 필요성 증가 1. 인공지능의 활용 증가

2. 인공지능의 한계와 위험의 과장

3. 인공지능의 규제 필요성과 파급효과를 고려 한 규제 프레임의 차별화

Ⅲ. 인공지능의 특성과 법률적 규율 1. 예측곤란성

2. 자율성

3. 개발과정의 차별성

Ⅳ. 사전적 법 규율

1. 인공지능개발에 대한 사전규제의 특성 2. 사용승인을 통한 개발 단계의 안전성 규제

Ⅴ. 법적 책임 귀속을 통한 사후적 규율 1. 일반론

2. 민사적 책임 귀속 3. 형사적 책임 귀속

Ⅵ. 결론

Ⅰ. 서론

이창호와 DeepMind의 알파고 대결 이후 인공지능에 대한 관심이 증가한 것은 물론 다 양한 관점에서 인공지능에 대한 갖가지 평가와 분석이 나왔다. 심지어는 인간 챔피언을 능 가하는 인공지능의 성능에 두려움을 갖기도 하고, 인공지능이나 인공지능 로봇이 인간을 지배할 것이라는 섣부른 예측도 나왔다. 이러한 시점에서 인공지능에 대한 분석의 필요성, 특히 위험과 관련한 검토가 필요하다고 보았다. 우선 인공지능의 실체를 파악하는 것이 중 요하다. 로봇기술의 발달로 인해 산업생산 현장이나 병원의 수술실, 첨단 군사기술 등에서 로봇 기술이 차지하는 비중이 빠르게 늘고 있는1)이 시점에서 인공지능 로봇의 전제가 되 는 인공지능에 대하여 제대로 이해하지 못한 채 인공지능에 대한 갖가지 논의가 전개된다 는 것은 불행한 일이다. 인공지능로봇이 초래할 수 있는 위험과 관련하여 법적 규제의 구상 도 불가결한 일이라 보이는데, 법적 규율 대상을 명확히 한다는 점에서라도 인공지능이 무 엇인지 파악할 필요가 있지만 놀랍게도 전문가들조차 공감할 수 있는 인공지능의 정의를 내놓지 못한다. 이런 상황 때문에 인공지능의 법적 규율 문제의 첫 번째 과제가 인공지능의 정의라고 해도 과언은 아닌 것이다. 나아가 인공지능의 위험이라는 측면을 다양한 관점에 서 들여다 볼 필요가 있고, 이러한 위험의 특성에 기초하여 적절한 법적 규율 방안을 구상 1) 고인석, “아시모프의 로봇 3법칙 다시 보기: 윤리적 로봇 만들기”, 『철학연구』, 제93집, (철학연구

회, 2011), 98쪽.

(4)

하는 것도 시급한 일이라 판단하였다. 따라서 본고에서는 인공지능의 위험의 특성을 다양 한 각도에서 들여다보기로 하였다. 민․형사법적 책임 귀속을 통한 사후적 규율 외에 사전 규율도 함께 논하기로 한다. 여하튼 인공지능의 법적 규율과 관련하여 기존의 법적 책임론 과 다른 특이점은 무엇인지 그 차이로 인한 규율의 난점의 해결책 모색의 출발점은 어디일 까 하는 고민도 필요하다고 보고, 그런 부분에 대하여도 언급하기로 한다.

Ⅱ. 인공지능의 활용 증가와 법적 규율의 필요성 증가

1. 인공지능의 활용 증가

인공지능에 대한 정의는 다양하지만, 스튜어트 러셀과 피터 노빅은 인간적 사고, 인간적 행위, 합리적 사고, 합리적 행위라는 네 가지 접근방식으로 정의하고 있다. 즉 인간적 사고 접근방식은 문자 그대로 완전한 의미의 마음을 가진 기계가 인공지능이라고 보는 반면, 인 간적 행위 접근 방식은 사람이 지능적으로 수행해야 하는 기능을 수행하는 것을 인공지능 으로 보고, 합리적 사고 접근방식은 인지, 추론, 행위를 가능하게 하는 계산 모형을 정신능 력으로 보고, 합리적 행위 접근방식은 지능적 에이전트의 설계, 지능적 행동에 관한 것이라 본다.2) 그러나 인공지능을 강한 인공지능과 약한 인공지능으로 구분하는 것도 논의의 방향 설정과 관련하여 의미가 있어 보인다. 약한 인공지능은 인간의 지능적 행동을 수행하도록 공학적 응용을 모색하는 접근방식인데, 인간의 지능적 행동이라는 수행과정에 주목한 것이 아니라 그 수행 결과에 주목한다. 반면 강한 인공지능은 인간과 같은 사고체계로 문제를 분석하고 행동할 수 있다는 전제 하에 인공지능을 연구하는 접근방식이다. 강한 인공지능 의 특징은 그 자체가 인간처럼 마음을 갖는다.3)제3세대로 분류되는 현 단계 인공지능을 가능케 한 것은 머신러닝, 그중에서는 딥러닝인데, 약한 인공지능으로서 성격을 가지며, 각 분야 혁신의 프레임 역할을 하고 있다. 이러한 머신러닝은 인공지능의 지식 병목 문제를 하드코딩된 지식공학보다는 학습기반 방법에 의하여 해결될 수 있다는 인식의 결과이며, 이미 수천 종의 인공지능 응용 프로그램을 통해 모든 산업의 기반구조에 깊숙이 내장되어

2) 스튜어트 러셀/피터 노빅, 류광(역), 『인공지능 현대적 접근방식』, 제3판(제이펍, 2016), 2쪽.

3) 김기현, “인지과학과 인공지능”, 『과학사상』, 제29호(범양사, 1999), 96쪽.

(5)

있다.4)따라서 본고에서는 강한 인공지능을 전제로 한 논의가 아닌 현실적 모델인 약한 인 공지능을 대상으로 한다. 약한 인공지능이 적용된 대표적 모델은 로봇인데, 상업적으로는 Aibo와 같은 다양한 robot pets가 상업적 성공을 거두면서 사람과 교감하고 기쁘게 할 수 있는 소위 social robot 분야가 성장할 것으로 보인다.5) 이러한 로봇은 자율적 행동을 할 수 있고, 복잡한 환경 속에서 인간과 교감할 수 있다.6)이러한 (인공지능)로봇이 인간사회 에 통합되면서 로봇으로 인한 각종 문제가 야기되는데 로봇의 사회화 문제라 할 수 있는 각종 논의7)도 전개되고 있다. 이와 함께 인공지능이 현실세계에 진입함으로 인한 책임 부 여의 법적 측면도 중요한 이슈가 될 수밖에 없다.8) 인공지능의 현실적 모델은 다양한 형태 로 존재한다. 청소용 로봇, 교육용 로봇, 보안 로봇, 건강관리 로봇, 엔터테인먼트 로봇, 유 비쿼터스 로봇은 물론 무인항공기(드론), 자율주행 무인자동차, 무인무기는 모두 인공지능 알고리즘과 사물인터넷, 빅 데이터 등의 첨단기술의 결합으로 생겨났으며 모두 약한 인공 지능 로봇의 범주에 속한다고 보아야 한다. 이런 다양한 형태의 인공지능 로봇의 등장과 향후 예상되는 상용화 가능성으로 인해 로봇윤리 등에 머물던 인공지능의 책임 논의의 방 향에 대한 인식변화가 절실해졌다. 특히 인공지능이 촉발할 사회적 변화는 4차 산업혁명으 로까지 여겨진다.9) 증기기관과 기계화가 가져온 1차 산업혁명, 전기를 이용한 대량생산이 본격화된 2차 산업혁명, 인터넷으로 인한 정보화 및 자동화 생산시스템의 3차 산업혁명에 이어 인공지능과 로봇 등 첨단기술은 4차 산업혁명으로 이끄는 동력이라 할 수 있다.

인공지능의 핵심은 다양한 기계학습 기술을 통해 자연어를 이해하고 표현하여 지식베이 스를 구축하고 새로운 지식을 추론 및 생성해낼 수 있으며, 학습과 추론을 통해 진화가 가 능한 기술이라고 할 수 있다.10)특히 인공지능 로봇이 기존의 로봇과 다른 점은 인간과 상 호작용하면서 같은 공간을 공유한다는 특성이다.11)

4) 스튜어트 러셀/피터 노빅, 위의 책, 35쪽.

5) Robert Sparrow/Linda Sparrow, “In the hands of machines? The future of aged care”, Mind Mach(2006), p.148.

6) Yueh-Hsuan Weng, “Beyond Robo Ethics: On a Legislative Consortium for Social Robotics”, Advanced Robotics 24(2010), p.1920.

7) Yueh-Hsuan Weng, supra note 5, at 1920.

8) Dante Marino and Guglielmo Tamburrini, “Learning robots and human responsibility”, International Review of Information Ethics vol.6(2006), p.47.

9) http://www.information-age.com/connected-cars-wild-are-you-ready-and-are-they-ready-123460910 (2016. 6. 10. 최종방문).

10) 이형직 외, “빅 데이터 지식처리 인공지능 기술동향”, 『전자통신동향분석』, 통권 148호, (한국전 자통신연구원, 2014), 31쪽.

11) 한창수/류영선, 『지능형서비스로봇의 설계와 응용』, 초판(청미디어, 2008), 2쪽.

(6)

특히 최근 인공지능이 보인 혁혁한 성과는 모두 딥러닝 또는 머신러닝 기법 때문이라고 해도 과언이 아니다. 머신러닝은 데이터만 주어지면 스스로 이를 분석하여 학습 가능한 규 칙이나 새로운 지식을 추출함으로써 결과적으로 컴퓨터가 학습하는 효과를 얻도록 한다는 특징이 있다.

2. 인공지능의 한계와 위험의 과장

인공지능 로봇이나 자율주행자동차 등 인공지능의 현실적 모델의 핵심은 그 소프트웨어 에 해당하는 인공지능인데, 인공지능이 체스에 이어 최근 바둑, 장기 등에서도 인간 챔피언 을 능가하면서, 인공지능 능력의 한계가 어디까지인가 하는 의문도 제기되고, 동시에 이러 한 인공지능에 대한 막연한 두려움과 억측이 양산되기 시작했다. 인공지능 분야 중 머신러 닝이 가진 잠재력을 두려워하면서 적극적 규제의 필요성이 있다는 주장이 스티븐 호킹과 같은 석학이나 테슬라 CEO 엘론 머스크로부터 나왔으며, 엘론 머스크는 ‘인공지능 개발은 악마를 소환하는 것’이라고까지 언급했다.12)그러나 이러한 인공지능의 위험성에 관한 주 장은 강한 인공지능을 전제한 것인데, 현재의 인공지능은 인간지능과 비교하여 뚜렷한 한 계가 있는 약한 인공지능일 뿐이다. 비생물학적 지능, 즉 기계지능의 장점은 수십억 개의 사실을 정확하게 기억하고 즉시 불러내는 능력으로, 일단 습득한 기술을 정확하고 빠른 속 도로 지치지 않고 반복수행할 수 있지만13)인간지능이 가진 잠재력을 따라올 수 없을 뿐만 아니라, 특정분야에 국한하여 우수한 성능을 보인다는 한계가 있다. 때문에 소위 모라벡의 역설(Moravec’s Paradox)과 같이 인공지능은 복잡한 수식 계산 등 부분적으로는 탁월한 성 능을 보이지만, 정작 인간이면 일상적으로 할 수 있는 듣거나 보고 느끼는 것은 제대로 할 수 없다. 인공지능의 범용적 모델은 존재하지도 않지만, 앞으로 존재하기도 어렵다고 보인 다. 그렇다면 인공지능과 관련한 각종 논의에서도 이와 같은 인공지능의 명백한 한계를 염 두에 둘 필요가 있고 그 점은 인공지능 로봇의 규율방안 모색에도 그대로 들어맞는다. 그런 점에서 보면 유럽 등지에서 개최되는 robotics 관련 심포지엄에서 로봇윤리(roboethics)와 관련하여 이루어지는 왕성한 논의는 강한 인공지능의 출현에 대한 의구심이 증대되는 시 점에서 성급한 감이 없지 않다.

12) https://www.rt.com/usa/199863-artificial-intelligence-dangers-humanity/(2016. 6. 15. 최종방문).

13) 하원규 외, “만물지능통신 기반․초연결 시대의 2030년 시나리오와 함의도출”, 『전자통신동향분 석』, 제28권 제1호, (한국전자통신연구원, 2013), 135쪽.

(7)

3. 인공지능 규제 필요성과 파급효과를 고려한 규제 프레임의 차별화

위와 같은 인공지능 로봇 등의 활용 양상을 보면 인공지능에 대한 규제가 로봇 윤리 등 과 같은 관념적 고찰의 대상이 되어서는 아니 된다. 현재까지의 기술 발전 추이만 감안하더 라도 무인자동차의 출현은 도로교통법이나 자동차관리법, 자동차손해배상보장법을 비롯한 현재의 법적 책임구조가 만들어진 당시의 상황과는 완전히 다른 양상이다. 따라서 이런 상 황에 따른 법 규제 이슈도 달라져야 한다. 뿐만 아니라 어떤 특정 인공지능 로봇시스템에 대한 개별적․각론적 고찰이 아닌 인공지능 전체에 대한 총론적 규율의 필요성이 증가하 였다. 인공지능이나 로봇이 가져올 수 있는 위험성에 대한 경고도 심심찮게 나오면서 인류 에 대하여 재앙이 될 수도 있는 이러한 인공지능에 대한 다양한 대비책의 일환으로도 법적 책임 등 규율의 필요성과 시급성은 크다. 따라서 과거 인공지능 관련 법률연구가 강한 인공 지능 로봇 등장을 전제로 인간의 존엄성과 권리주체 문제, 인공지능 로봇의 자율성, 인공지 능 로봇의 법적 책임, 규범적 판단의 자동화, 로봇 윤리헌장 마련 등과 같은 법철학적 논의 에 모아졌다면 이제는 로봇의 인공지능 알고리즘 자체에서 발생하는 각종 위험에 대한 통 제와 법적 규율과 같이 로봇의 본질적 요소인 약한 인공지능 자체에 대한 이해를 기반으로 한 본격적 연구로의 방향 전환이 필요한 시점이다.

인공지능의 규율에서 또 하나 간과하지 말아야 할 것은 인공지능의 형태와 이용분야가 다양한 만큼 그 규제에 있어 인공지능이 인간생활에 미치는 파급효과와 규모 등을 고려하 여야 한다. 자율주행자동차가 일반화되면 이러한 유형의 인공지능과 인간과의 접촉빈도는 증가할 것이고, 그 영향력은 특정분야에 국한되지 않는다. 청소용 로봇이나 교육용 로봇과 같은 서비스 로봇의 경우, 인간과의 접촉이 상시적이다. 로봇수술과 같은 경우도 제한적 공간이지만, 인간과의 접촉빈도가 아주 클 것이다. 최근 중국의 IT 전시회에서 ‘패티(Fatty) 로 명명된 가정용 로봇이 통제를 벗어나 사고를 일으키기도 하였다.14)반면 로보어드바이 저나 법률정보검색시스템과 같이 구체적으로 체화(体化)되지 않은 경우는 자율주행자동차 등과는 달리 접촉면이 작고 제한적이다. 따라서 인공지능이나 로봇의 경우 그 접촉면의 크 기, 파급효과, 위험의 실재 정도나 심각성 등을 규제 프레임 설계 시 고려하여야 하고, 인공 지능으로 인하여 발생할 수 있는 피해 양상도 함께 고려하여야 한다. 인공지능의 위험이 재산상 피해에 국한되는 것과 인간의 생명․신체의 위험과 직결되는 경우는 분명 규제 프 레임이 달라져야 할 것이다.

14)http://www.zdnet.co.kr/news/news_view.asp?artice_id=20161121100645.(2016. 7. 30. 최종방문).

(8)

Ⅲ. 인공지능의 특성과 법률적 규율

기존의 인공지능이나 로봇에 대한 논의에서 미흡하거나 아쉬운 점은 정작 인공지능이나 로봇이 야기하는 위험의 근본적 원인에 대하여는 설득력 있는 설명이 부족하다는 것이다. 인공지능이 초래하는 위험은 기왕의 다른 위험과는 다른 특징이 분명히 있다. 인공지능의 위험성의 원인으로 거론되는 것 중 대표적인 것은 인공지능의 자율성, 작동의 예측곤란성, 개발의 분산성, 야기된 손해에 대한 인과관계 불명의 측면 등이다.

1. 예측곤란성(Unforeseeability)

인공지능 특히 최근의 머신러닝 시스템의 경우 비록 그 알고리즘이 잘 알려져 있다고 하더라도 모든 상황에서의 행동을 예측하긴 어렵다.15)머신러닝 시스템의 동작은 데이터 세트의 패턴과 상관관계에 의하여 이루어지는데, 속성상 미리 알기 어렵다.16)이러한 측면 때문에, 인공지능이 창의적이라고 생각할 수도 있다. 그러나 그것은 어디까지나 인공지능 의 설계과정에서 인공지능 시스템이 창의적으로 비춰지거나 고정관념을 뛰어넘는 자유로 운 생각을 하는 것처럼 동작하도록 설계되었기 때문인데 이와 같은 인공지능의 창의적 성 격은 인간이면 범할 수 있는 인지적 편견에서 자유로운 인공지능의 특질과 무관하지 않 다.17)인공지능의 기계적 특성 때문에 그 의사결정에서 인간이면 갖게 마련인 인간적 특성 이 배제된다. 때문에 인공지능이 산출한 해결책은 인간의 입장에서 나올 수 없는 특이한 것일 수도 있다. 인지적 한계가 있는 인간은 시간적 제약 때문에 가용한 모든 정보를 분석 할 수 없기 때문에 최적의 결과보다는 만족할 수 있는 해법을 강구하는 반면 인공지능은 가능한 모든 해결책을 모색할 수 있다.18)이러한 인공지능 의사결정의 특성이 암시하는 바 는 암울하다. 인공지능의 규율의 관점에서는 인공지능이 갖는 이러한 창의적 특성이 긍정 적이라기보다는 ‘예측곤란’이라는 부정적 평가와 연관되기 때문이다. 이러한 인공지능 시 스템 동작의 예측불가능성 때문에 민․형사적 책임과 관련하여서 여러 가지 문제가 생겨 15) Thomas Burri, “Machine Learning and the Law: Five Theses”, NIPS Symposium, 8 December,

2016, p1.

16) id.

17) Matthew U. Scherer, “Regulating Artificial Intelligence System: Risks Challenges, Competencies, And Strategies”, Harvard Journal of Law & Technology Volume 29, Number2 Spring(2016), p.364.

18) id. at 365.

(9)

날 수밖에 없다.19)이러한 예측곤란성은 국외자뿐만 아니라 인공지능 개발자에게도 마찬가 지일 수 있다. 인공지능은 인간이라면 제약될 수밖에 없는 관념, 사회통념, 경험법칙 등에 서 자유롭기 때문에 인간이 도저히 상상할 수 있는 독특한 방법으로 일을 처리할 수도 있 는데, 이러한 해결방안은 인간이라면 직관적으로 거부할 수밖에 없는 선택일 수도 있다.20)

2. 자율성(Autonomy)

인공지능을 기존 기술과 구별하는 요소 중에서 빠질 수 없는 것이 자율성이다. 자율성이 라는 것도 복합적 개념이며, 지능의 개념과 더불어 그 정확한 정의가 어려운 측면이 없지 않다.21)스스로 어떤 결정을 할지 선택하고, 그 결정을 실행할 수 있는 능력을 의미한다.22) 단순히 정의하면 자율성은 로봇 등이 어떻게 행동해야 할지와 같은 주요한 결정을 할 수 있는 능력을 의미한다.23)인간의 직접적 지시 없이 기계가 획득하고 분석한 정보를 바탕으 로 독립적으로 행동한다는 점도 자율성의 속성이다.24)자율성을 자신의 행동을 규제하는 개인적 자율성의 개념으로 받아들일 때, 인간의 자율성 즉 스스로 세운 도덕률에 따르는 일에 비견될 수 있는 인공지능 개념은 무엇인가? 인간의 도덕률에 해당하는 것이 결국 개 발자가 인공지능을 설계하면서 행동의 지침으로 기능하도록 정한 규칙이다. 다른 사람의 통제를 받지 않는다는 개념으로서의 자율성은 인공지능이 사람의 제어나 감독 없이 자동 차를 운전하는 등의 복잡한 일을 수행하고 있다는 사실로 설명될 수 있다.25)이렇게 복잡 한 업무를 인간의 개입 없이 인공지능이 온전히 수행하는 일이 점차 늘어나고 있다. 이런 측면 때문에 이미 노동시장에서 인공지능으로 인한 일자리 축소 등이 거론되기 시작했으 며, 인간 고유의 영역이라 간주되는 영역까지 인공지능이 수행할 수 있게 되었다.26)

19) Thomas Burri, supra note 15, at 1.

20) Matthew U. Scherer, supra note 17, at 365.

21) J.P. Gunderson/L.F. Gunderson, “Intelligence ≠ Autonomy≠ Capability”, http://citeseerx.ist.

psu.edu/viewdoc/download?doi=10.1.1.78.8279&rep=rep1&type=pdf(2016. 12. 3. 최종방문).

22) id.

23) John P. Sullins, “When Is a Robot a Moral Agent?”, International Review of Information Ethics vol.6(2006), p.26.

24) David C. Vladeck, “Machine Without Principal: Liability Rules And Artificial Intelligence”, 89 Wash. L. Rev. 117(2014), p.121.

25) id.

26) Matthew U. Scherer, supra note 17, at 363.

(10)

3. 개발과정의 차별성

규율의 관점에서 보면 인공지능의 가장 큰 문제적 특성은 인공지능 그 자체가 아니라, 인공지능 연구개발이 이루어지는 방식이다. 인공지능 개발은 주목할 만한 사회적 기반시설 없이도 수행될 수 있다. 또 인공지능 시스템 개발에 참가하는 구성원들이 여러 나라에 분산 되어 있어도 개발에는 문제가 없다. 반드시 특정 나라, 특정한 조직 내에 있을 것을 요구하 지 않는다. 또 인공지능의 각 구성부분 설계는 각기 다른 시각과 장소에서 서로 간의 협업 없이 독립적으로 이루어질 수 있다. 인공지능 개발 작업은 대부분 외부에 공개되지 않고, 또 역공학(reverse engineering)도 허용되지 아니함으로써 시스템 개발자가 아닌 다른 사람 은 역공학에 의하더라도 그 인공지능이 어떻게 설계되었는지 그 설계 기법 등을 알아낼 가능성이 없다.27)

(1) 막대한 기반시설 불요

정보화시대에는 첨단기술 등으로 인해 다양한 도전과제에 직면하게 되지만, 인공지능으 로 인해 더 독특한 도전에 직면한다. 예를 들면 핵공학, 대량생산, 산업공해, 독성물질 대량 생산 등 20세기를 특징짓는 공공위험의 원천기술은 모두 상당한 사회기반시설 투자를 필 요로 한다.28)이점 때문에 이러한 위험에 대한 규제절차는 비교적 단순하다. 정부에 의하여 주도되는 경우가 아니라면, 필요한 시설 구축이나 인력 고용, 장비 구입 등에 소요되는 고 비용 때문에 굴지의 대기업만이 공공위험의 근원이 되는 기술 개발에 뛰어들 수 있다. 또 기반시설의 설치와 작동․유지를 책임지는 사람들은 그 기반시설이 있는 장소에 있어야 한다. 이러한 기반시설의 물리적 가시성 등의 특징은 공공의 위험이 은밀히 일어날 가능성 을 줄여준다.29)규제기관으로서도 위험을 야기하는 주체가 누구인지, 무엇이 잠재적 공공 위험이 될 가능성이 있는지를 파악하는데 아무런 어려움이 없다. 반면 인공지능의 연구개 발은 다른 정보화 기술과 마찬가지로 은밀하게 이루어질 수 있다. 물론 제한적이긴 하지만, 인공지능 개발은 대학 연구소보다 재정적으로 취약한 기관에 의하여도 이루어질 수 있다. 오픈 소스 프로그램의 부상은 인공지능 시스템 개발에 상당한 기여를 했다. 큰 회사나 가질 수 있는 자원 또는 시설이 없어도 인공지능 시스템 개발이 이루어질 수 있는 가능성이 증 가했다.30)

27) Matthew U. Scherer, supra note 17, at 372.

28) id at 369.

29) id.

(11)

(2) 개발의 분산성

인공지능 개발의 경우 특정 개발자가 모든 과정을 도맡아 개발하는 것이 아니라 기존의 오픈 프로젝트로 진행된 결과물에 의존하는 경우가 많다. 현재 머신러닝과 관련하여 많은 오픈소스 라이브러리가 존재한다. 구글의 머신러닝 라이브러리인 텐서플로우는 파이선 기 반이며, 파이선 기반의 Theano, Caffe 등 여러 가지 라이브러리가 있고, 대부분의 머신러 닝 개발이 이러한 라이브러리 기반으로 진행되고 있다. 머신러닝을 이용한 개발과정에서 개발자는 그 라이브러리가 담당하여 수행한 결과물을 자신들의 구체적 작업에 이용할 뿐 그 라이브러리의 작동과정에 대하여 제대로 알거나 그 라이브러리의 개발이나 개선에 관 여할 수 없다. 인공지능 프로그램은 여러 컴포넌트(Component)로 구성되고, 각 컴포넌트 는 다른 사람의 협조 없이 별개로 구축되거나 개발되는데, 그러한 컴포넌트 중 오픈소스 라이브러리 개발자는 장차 어떤 개인이나 실체가 그 라이브러리를 사용할지 미리 알 수 없다.31)그와 같은 오픈소스 라이브러리를 컴포넌트로 이용하여 인공지능 시스템이 개발 되지만 정작 인공지능 시스템 개발자는 오픈소스 라이브러리 개발에 전혀 관여하지 않는 다. 그럴 경우, 그 오픈소스 라이브러리로 인하여 전체 인공지능 시스템의 운용상 오류가 생겨 손해가 발생한 경우, 그 법적 책임을 누구에게 묻는 것이 타당한지도 규명되어야 할 문제다. 이런 현상은 비단 오픈소스 라이브러리에 국한되지 않는다. 현대의 컴퓨터 시스템 은 상업용 규격품인 하드웨어와 소프트웨어 부품을 사용한다. 비록 보안성 문제는 야기되 지만, 비용절감 차원에서 외부에서 개발된 이런 하드웨어와 소프트웨어 사용현상은 극대 화된다.32)인공지능 시스템 개발자가 시스템을 구성하는 모든 컴포넌트를 구축하는 것이 불가능한 것은 아니겠지만, 현실적으로 극히 드물다.33)현대의 대부분 복잡한 시스템들이 별도로 개발된 컴포넌트들을 사용하여 개발하다 보니 현재 컴퓨터 시스템의 소프트웨어 와 하드웨어 요소 사이의 상호작용의 규모와 별개성은 기존 기술에서는 볼 수 없을 정도 로 현저하다.34)

30) id.

31) Matthew U. Scherer, supra note 17, at 371.

32) id.

33) id.

34) id.

(12)

Ⅳ. 사전적 법 규율

인공지능의 위와 같은 여러 가지 특질은 그 규율을 어렵게 하지만, 그럼에도 불구하고 현행 법률체제로 인공지능이라는 혁신을 억누르지 않고도 공공의 위험을 줄일 수 있는 여 러 가지 규제 방안이 강구되어야 한다.35)인공지능 관련 분야의 신속한 입법절차가 필요하 며, 각 산업분야별로 인공지능 개발 및 상용화에 필요한 제도 발굴 및 선제적 연구도 필요 하지만, 인공지능이 가진 문제점이나 특질을 직시하고, 그 해결방안을 모색할 필요가 있다.

그 과정에서 나타나는 현행 법률의 미비점만 제대로 보완하면 사전 규율에 크게 어려움이 없을 것으로 보인다. 책임이나 규율을 위한 인공지능의 법적 정의는 인공지능에 국한된 도 전과제는 아니다. 물론 부정확하고, 모호한 용어에 대하여 정확한 법률적 정의를 제시하는 것도 필요하다. 책임이나 규율과 관련된 법적 정의도 지나치게 포괄적이거나, 너무 제한적 일 수 있고, 예측가능성이나 인과관계와 같은 이슈도 직면해야 할 문제이다.36)

1. 인공지능 개발에 대한 사전 규제의 특성

인공지능 개발의 분산적 성격은 인공지능 개발 규제에 지장을 초래할 수 있는 요소다. 인공지능 개발은 기반시설이 크게 필요하지 않기 때문에 사전 규제로 인해 개발에 지장을 초래된다고 판단하면, 해외에서 개발을 함으로써 규제를 쉽게 피하는 소위 규제의 풍선효 과(Balloon Effect)가 우려된다. 인공지능 개발이 여러 가지 툴과 프레임워크 위에서 이루어 질 뿐만 아니라 다양한 컴포넌트로 구성되는 인공지능 시스템의 특성상 다양한 개발자들 이 관여할 수밖에 없는데, 이러한 개발자들이 각기 다른 나라에 위치한다는 점 또한 인공지 능 시스템 관련 위험 규율 제도 설계를 복잡하게 할 가능성은 분명 있다. 그러나 이러한 우려도 시기상조로 보인다. 세상을 놀라게 한 인공지능의 진전은 대부분 굴지의 세계적 기 업에 의하여 이루어졌다. IBM이 딥블루나 왓슨을 통해 체스나 퀴즈쇼에서, Google의 DeepMind가 알파고를 통해 바둑에서 세상을 놀라게 한 것에서 보듯 학문적 수준을 넘어 선 상업적 이용을 목표로 한 대부분의 인공지능 개발은 막강한 자금력을 가진 강대국 소재 거대기업에서 이루어졌다. 현 단계에서 공공의 위험을 초래할 정도의 인공지능 개발이 특 정 개인이나 연구소 단위에서 이루어질 수 없고 거대기업에서 이루어질 수밖에 없다는 사

35) Matthew U. Scherer, supra note 17, at 374.

36) id.

(13)

실은 이러한 거대기업에 대한 해당 국가의 사전 규제를 통해 인공지능 개발로 인한 위험을 규제할 가능성을 높일 것으로 보인다. 물론 이러한 상황도 컴퓨터 성능의 발달이나 머신러 닝 기법의 발달에 따라서는 달라질 가능성이 없는 것은 아니겠지만, 그동안 인공지능의 발 전을 저해한 요인이 상태폭발 또는 계산복잡도의 문제인데,37)이러한 계산복잡도의 해결을 위한 하드웨어의 구축에 소요되는 막대한 자금조달은 아무나 할 수 없기 때문에 그 상황 변화의 가능성은 지극히 낮을 것으로 보인다.

인공지능 개발 기업의 자체적인 노력도 인공지능 개발의 위험을 줄여줄 것으로 보인다. IBM과 같은 경우도 진작부터 인공지능 기술의 남용이나 오용 가능성을 염두에 두고, 그 개발의 목표를 제대로 설정하고 개발이 제대로 이루어질 수 있도록 가이드라인을 정하는 등 인공지능 개발로 인한 위험해소방안에 대하여 고민하고 있다.38)

2. 사용승인을 통한 개발 단계의 안전성 규제

인공지능이 가지고 있는 위험성을 해소하기 위해서는 안전성 규제가 최우선 과제다. 개 발 단계에서도 안전성을 확보할 수 있도록 개발과정에 대한 보고의무 부과나 안전성 심사 등의 규제방안이 필요하며, 개발 착수 전에 개발 허가과정의 심사를 통하여 개발하고자 하 는 인공지능 시스템의 설계 내용이 각종 관계법령이나 안전기준을 충족하는지를 평가하는 방안도 생각할 수 있다.

그러나 이러한 갖가지 사전 규제의 난점은 최종적 사용 허가 단계에서 어느 정도 해소될 수 있을 것으로 보인다. 즉 정부 차원의 사용허가라는 포괄적 수단을 통해 합리적 대체설 계 가능성 등 설계상의 결함은 없는지 여부, 원래 의도된 설계와 다르게 제조된 것은 아닌 지, 안전기준에 저해되는 부분은 없는지를 확인하여야 한다. 특히 인공지능 시스템의 개발 과정에서 미리 정해진 사전 규제절차를 제대로 이행하지 않은 경우, 그 시스템의 결함 유무 와는 무관하게 최종적 사용승인을 거부하는 것도 하나의 방안이다. 사용 승인 후 일정 기간 사용과정을 사후 평가하여 안전 중요도가 높은데도 그 기준 충족이 미흡하다고 판단될 경 우, 생산자나 최종사용자에게 인공지능 시스템의 실질적 안전성을 향상시키는 것과 같은 장기적 안전성 유지대책 방안을 강구토록 하는 것도 필요할 것으로 보인다. 또 최종적 사용

37) 유신, 『인공지능은 뇌를 닮아 가는가』, 초판(사이언스 갤러리, 2015), 40쪽.

38) Gurunduth Banavar, “Learning to trust artificial intelligence systems”, IBM Whitepaper(2016), p.3.

(14)

승인 전에 신약허가와 같이 일정한 형태의 사용 실험을 통해 안전성 여부를 충분히 검증한 후, 그런 검증을 통과하여야 비로소 사용승인을 하는 시스템을 통해서도 사전 규제가 가능 하다. 나아가 사용 승인 후의 인공지능 시스템의 개별적 사용 자체에도 기존의 제조물과는 다른 특별한 조건을 부여하는 방안도 있다. 예를 들면 인공지능 시스템의 사용을 일정한 조건에서 허용하는 방안이다. 예들 들어 미국에서는 무인드론의 경우, 비행시간을 주간으 로 제한하고, 고도 500피트 이하로 제한하며 가시 범위내의 작동, 조종자격 취득, 항공기 등록 등 여러 가지 제한을 가하는 법안이 제안되었는데,39)이와 같이 사전에 정한 일정한 조건을 충족해야 인공지능 시스템을 사용하도록 하는 방안을 사전 규제 방안으로 고려할 만하다. 또 무인자동차의 경우 그 사용에 있어서 사용자에게 별도의 자격증 획득을 요구하 거나, 그 자동차를 주간에만 사용할 수 있도록 제한하기도 한다. 보험 요구도 일반 자동차 와는 다르다. 캘리포니아나 플로리다의 경우 무인자동차 생산자에게 그 자동차의 운행 테 스트 전에 5백만 달러의 보험이나 이행보증서를 요구한다.40)미국의 경우 각주 마다 안전 기준이 각기 다르다. 우리나라의 경우에도 인공지능 시스템이 가지는 위험성에 비추어 이 와 같은 안전기준을 정하고, 준수하도록 하는 입법의 필요성은 당연하다. 또 인공지능 시스 템의 운영 경험이나 그러한 시스템이 초래한 위험 유형에 대한 체계적 관리를 통해, 향후 인공지능 개발 규제의 지침으로 활용할 수도 있다. 나아가 국제기구나 협의체를 중심으로 인공지능의 안전기준 공조를 위한 노력도 필요하다.

Ⅴ. 법적 책임 귀속을 통한 사후적 규율

1. 일반론

인공지능 시스템의 법적 책임과 관련하여 첫째 의문은 과연 국내법이나 국제법이 인공 지능을 법적 주체로 인정하고 책임을 물을 수 있는가 하는 것이다. 인공지능 시스템에 법적 주체로서의 자격이 부여되지 않으면 그것이 야기한 손해에 대하여 인공지능 시스템에 책

39) Daniel North, “Private Drones: Regulations And Insurance”, 27 Loy. Consumer L. Rev.

334(2014-2015), pp. 348-349.

40) Ujjayini Bose, “The Black Box Solution To Autonomous Liability”, 92 Wash. U. L. Rev.

1325(2014-2015), p.1332.

(15)

임을 지울 수 없기 때문이다. 강한 인공지능이 아닌 약한 인공지능의 현실 하에서는 로봇을 법적 주체로서 취급하는 등의 보다 고차원적인 의문은 다소 비현실적이기도 하고, 여러 가 지 차원의 보다 심도 있는 검토를 요한다. 오히려 이러한 인공지능 시스템의 소유, 이용 또는 인공지능이 야기한 손해(사고)의 책임에 관한 어려움에 주목하고, 인공지능의 자율적 판단에 대한 책임의 귀속주체를 누구로 할 것인가에 대한 논의가 필요하다.41)누가 인공지 능의 작동에 의하여 야기된 손해에 대하여 책임을 져야하는가? 인공지능을 도구로 간주하 고, 도구가 질 수 없는 책임을 도구의 사용자가 져야 한다는 단순한 논리에 따를 것인가?

우선 제한적으로나마 인공지능의 권리주체성을 인정하는 급진적 접근법42)이 있긴 하나 현 재의 인공지능 수준에 비추어 채용하기 어렵다고 할 것이다. 또 다른 방안은 기존 행위 주 체 사이에 책임과 의무를 재분배하는 방식의 실용적 접근 방식이다. 인공지능의 물건성을 부인하지 않으면서 인공지능을 이용하는 기존 권리주체의 권리와 의무를 구체적 현실상황 에 맞게 ‘증대’시키거나 ‘감축’시키는 조정을 통해 사고의 책임문제를 해결하고자 하는 방 식인데,43) 현실적으로 방안으로 평가된다.

물론 후자의 입장에서 해결책을 모색할 때, 수많은 컴포넌트로 구성된 인공지능 시스템 의 특성 때문에 누가 개발한, 어떤 컴포넌트 때문에 결함이 생겼는지 파악하는 것이 쉽지 않고 이러한 점은 인공지능 개발과정이나 작동과정에서의 오류로 인한 기존 권리주체들의 법적 책임 귀속이나 배분에 큰 장애가 될 것이다. 인공지능 시스템의 경우 그 개발과정에서 간과된 설계상의 결함으로 인해 사고가 발생한다 하여도 그 책임 규명과정에서 피해자는 물론 이러한 인공지능 시스템의 최종사용자, 컴포넌트 개발에 관여한 자, 인공지능 시스템 판매자나 시스템 관리자 등도 그 결함을 쉽게 발견하기 어렵다. 설계나 변경, 컴포넌트의 개발, 조립 등 인공지능 개발에 여러 사람이 관여하였기 때문에 이러한 주체들의 책임범위 를 구체적 현실상황에 맞게 조정하는 문제는 그리 녹녹치 않은 문제다. 어떤 컴포넌트는 인공지능 프로젝트가 구상도 되기 전에 이미 설계되었기 때문에 그 설계단계에서 그들이 설계한 컴포넌트가 향후 어떤 인공지능 시스템에 사용될 것인지 예견할 수 없을 뿐만 아니 라, 그런 컴포넌트 사용 때문에 향후 어떤 일이 벌어질지 가늠할 수 없다.44)시간적으로나 지리적으로 동떨어진 컴포넌트 설계자에게 추후 그 컴포넌트를 사용하여 개발된 인공지능

41) 이중기, “인공지능을 가진 로봇의 법적 취급: 자율주행자동차 사고의 법적 인식과 책임을 중심으 로”, 『홍익법학』, 제17권 제3호(2016), 8쪽.

42) 이중기, 위의 글, 9쪽.

43) 이중기, 위의 글, 8쪽.

44) Matthew U. Scherer, supra note 17, at 371.

(16)

시스템에서 발생한 손해를 이유로 책임을 묻는 것은 타당하지 않다. 법원도 그 컴포넌트의 설계자에게 그런 손해발생에 대한 예견가능성이 있다고 판단하진 않을 것이다.45)이러한 불투명성 때문에 인공지능 시스템 사용으로 인해 제3자에게 야기한 손해에 대한 책임을 소유자 혹은 최종사용자에게 묻는 것도 쉽지 않을 것이다.46)예측가능성의 문제를 차치하 더라도 다수의 잠재적 피고의 존재만으로도 책임 귀속은 복잡하고 지난(至難)한 일로 여겨 진다.47)

2. 민사적 책임 귀속

(1) 제조업자에 대한 엄격책임법리

고도의 기술발달로 인한 대량생산과 유통구조의 다단계성, 대량소비 등으로 인하여 불 법행위라는 법적 구성으로도 해결하기 어려운 복잡성이 나타나게 되었고, 이를 이용하여 이익을 얻고 있는 제조업자 측에 손실을 전가하는 것이 타당하다는 사회적 요구에 따른 것이 엄격책임 법리인데,48)이러한 법리의 인공지능에의 적용 가능성에 대하여 검토해보기 로 한다. 엄격책임은 주로 제조물책임법에 규정하고 있는데, 책임원칙을 과실에서 결함으 로 변경함으로써 위험책임, 결함책임에 근거를 둔 무과실책임을 인정하는 것으로 평가되는 데,49)이런 점은 인공지능의 오작동이라는 결함 구조에 들어맞는다. 제조물 책임법에 의하 더라도 객관적 요건으로 제조물에 결함이 있었다는 사실, 피해자에게 손해가 발생한 사실, 그 결함과 손해와의 인과관계가 입증되어야 한다. 인공지능 시스템의 경우, 그 중 제품 결 함의 존재, 결함의 존재시기 및 인과관계를 직접적으로 증명하는 것이 곤란할 경우가 많을 것이다. 이러한 경우, 간접사실을 증명하여 경험칙에 따라 결함을 추정하는 등 증명책임을 경감하고자 하는 시도가 있어야 한다.50)

(2) 제조물책임법에 의한 규율의 문제점

45) Matthew U. Scherer, supra note 17, at 373.

46) id at 374.

47) id.

48) 백경희/이인재, “의료과실책임과 유해물질 제조물책임에서의 인과관계에 관한 최근 판결의 동향 및 증명책임 경감 논의에 대한 검토”, 『경희법학』, 제47권 제3호, (경희대학교 법학연구소, 2012), 21쪽.

49) 백경희/이인재, 위의 글, 23쪽.

50) 백경희/이인재, 위의 글, 23쪽.

(17)

문제는 인공지능 시스템을 제조물로 규정하는 데 문제가 없는가 하는 것이다. 대부분 인 공지능 시스템은 그 자체로 통용되기 보다는 하드웨어와 결합되고, 통상 인공지능과 하드 웨어가 결합된 형태로 제조되기 때문에 제조물로 보는데 큰 어려움이 없지만, 인공지능을 소프트웨어 형태로만 제공한 경우에도 제조물책임법을 적용할 것인가 하는 면에서 소프트 웨어를 제조물로 볼 수 있는가가 문제된다. 민법상의 물건에는 소프트웨어 프로그램이 포 함되어 있지 않기 때문에 소프트웨어를 제조물로 보아야 하느냐와 관련한 논쟁이 있어왔 다. 제조물책임법 상의 제조물에 소프트웨어들이 포섭되어야 한다는 견해는 제조물책임법 입법 당시에도 있었고, 미국에서도 소프트웨어가 상품처럼 판매되는 경우에는 제조물책임 을 인정하여야 한다고 보는 것이 다수설이며,51)독일에서도 소프트웨어가 유체물인 디스켓 등에 체화되어진 경우 제조물로 보는 것이 다수설이다.52) 소프트웨어가 제조물에 포함될 수 있는가 하는 문제는 제조물책임법 제2조의 해석과 관련된 문제인데, 소프트웨어의 물건 성을 인정하는 견해는 소프트웨어는 그것을 담고 있는 저장매체와 분리할 수 없는 일체를 이룬데서 근거로 찾는다.53)반대로 유체물이 아닌 소프트웨어는 자연력도 아니고, 물건의 전제인 배타적 지배가 불가능하다는 이유로 물건성을 부인하는 견해도 있다.54)그 이외에 도 전기적 신호로 구성된 소프트웨어 자체를 관리가능한 자연력으로 파악하여 물건성을 인정해야 한다는 견해, 디지털화된 정보 그 자체는 민법상 물건에 해당하지 않지만, 이러한 정보가 물리적 장치에 저장되어 있다면 물건으로 보아야 한다는 등의 다양한 견해가 있는 데, 이러한 해석상의 모호성을 해소하는 방법으로는 인공지능 시스템과 같은 소프트웨어를 제조물책임의 대상으로 명시하는 방안과 제조물책임법과는 별개로 인공지능 시스템의 결 함으로 인한 손해와 법적 책임을 다루는 별도의 법률을 신설하는 방안이 있다. 후자 쪽에 무게를 실어야 하는데, 그 중요한 논거는 제조물책임법 규정형식에 있다. “제조상의 결함”

이란 제조업자가 제조물에 대하여 제조상․가공 상의 주의의무를 이행하였는지에 관계없 이 제조물이 원래 의도한 설계와 다르게 제조․가공됨으로써 안전하지 못하게 된 경우(제 조물책임법 제2조 제2호 가목)라고 정의하여 과실과는 관계없는 무과실책임으로 결함개념

51) 정용수 외, “제조물책임법 개정방안”, 『정책연구』,(한국소비자원, 2010), 26쪽.

52) 이상수, “임베디드 소프트웨어의 결함과 제조물책임 적용에 관한 고찰”, 『법학논문집』, 제39집 제2호(중앙대학교 법학연구원, 2015), 89쪽.

53) 허명국, “표준 컴퓨터 프로그램 거래의 법적 성질: 라이선스설 및 혼합계약설에 대한 비판적 입장 에서”, 『비교사법』,제16권 제3호, (한국비교사법학회, 2009), 38쪽; 김민중, “제조물책임법의 입 법화에 관한 최근의 국제적 동향”, 『저스티스』, 제25권 2호, (한국법학원, 1992), 31쪽.

54) 배대헌, “거래대상으로서의 디지털 정보와 물건 개념 확대에 대한 검토”, 『상사판례연구』, 제14 권, (한국상사판례학회, 2003), 307쪽.

(18)

을 정의하고 있지만,55)인공지능 시스템의 작동으로 인한 손해는 엄밀한 의미에서 이런 결 함의 개념과 일치하지 않는 데서 책임 귀속의 어려움이 비롯된다. 즉 인공지능 시스템의 경우, 의도한 설계대로 제조되어도 안전하지 못하고, 손해가 발생하는 경우가 있기 때문이 다. 이러한 경우는 현행의 제조물책임법에 의하여 규율할 수 없다. 따라서 이러한 근본적 차이는 소프트웨어가 제조물이냐, 또는 인공지능을 제조물로 보아 규율할 수 있느냐 하는 문제보다 더 심각한 것이다. 또 위험효용이론에 기초한 합리적 대체설계의 원칙 또한 과실 판단 기준과 다름없고, 제조업자에게 유리하게 해석될 수 있다는 비판에 직면해 있을 뿐만 아니라,56)현행의 기술 수준에서 최선의 기술수준에 의하더라도 불가피한 오류가 발생할 수 있다는 점에서 합리적 대체설계라는 제조물 책임법의 결함구조로는 해결하기 어렵다. 또 제조물책임법에 의하면 소비자가 제조물책임에 의한 손해배상을 요구하기 위해서는 제 조물의 결함 여부와 결함이 확대손해로 이어지는 인과관계를 입증해야 하는데, 고도의 기 술과 복잡한 공정으로 만들어진 인공지능 소프트웨어나 그 구성부분인 개개 소프트웨어의 결함을 밝히는 것은 현실적으로 매우 어렵다.57)특히 고도의 기술을 요하는 인공지능에 대 해서는 오작동이나 오조작이 겹쳐 인과관계의 판단이나 입증이 곤란한 경우가 많다.58)인 공지능의 소프트웨어 결함에 의한 것인가도 가리기 쉽지 않지만, 손해발생의 주원인이 어 디에 있는지, 손해의 발생은 예견가능한가 하는 기준은 인공지능 시스템에 적용하기 어렵 다. 따라서 인공지능의 특성을 반영할 별개의 책임요건을 규정할 필요가 있다. 굳이 제조물 책임법에 의하여 문제를 해결하고자 할 때는 인공지능의 개발위험 문제도 따져보아야 한 다. “개발위험의 항변에서 말하는 과학적 기술적 수준은 그 시점에서의 최고의 기술 수준 으로 그 제조물의 안전성을 철저히 검증하고 조사․연구를 통하여 발생 가능성 있는 위험 을 제거․최소화하여야 하며, 만약 그 위험이 제대로 제거․최소화되었는지 불분명하고 더 욱이 실제 사용자 등에게 그 위험을 적절히 경고하기 곤란한 사정도 존재하는 때에는, 안전 성이 충분히 확보될 정도로 그 위험이 제거․최소화되었다고 확인되기 전에는 그 제품을 유통시키지 말아야 한다.”59)이런 판례 취지에 따르면 인공지능 시스템의 경우, 그 개발자 나 설계자가 고도의 위험방지의무를 위반한 채 생명․신체에 위해를 발생시킬 위험이 있

55) 정용수외, 앞의 글, 35쪽.

56) 오일석, “제조물책임과 사후구제조치 증거”, 『안암법학』, 제33권, (안암법학회, 2010), 101쪽.

57) 이상수, 앞의 글, 73쪽.

58) 장재옥/윤태영, “지능형 교통 시스템(ITS)과 제조물 책임”, 『재산법연구』, 제29권 제1호, (한국 재산법학회, 2012), 64쪽.

59) 대법원 2013. 7. 12. 선고 2006다17539 판결.

(19)

는 인공지능 시스템을 설계하여 그대로 제조․판매한 경우에는 특별한 사정이 없는 한 그 인공지능 시스템에는 사회통념상 통상적으로 기대되는 안전성이 결여된 설계상의 결함이 존재한다고 봄이 타당하다는 결론에 다다른다.

미국에서도 제조물 책임법리에 따르면 피해자는 통상의 경우 그 제품이 원래 규정된 사 양을 지키지 못하였다는 점을 입증해야 하는데, 무인자동차의 경우에는 제조 시에 규정한 대로 작동하지 않았다는 것만 증명하면 승소할 수 있다.60)이러한 해석은 인공지능 시스템 과 같은 소프트웨어 에러(error)로 인한 손해일 경우, 제조물 자체에서는 결함을 발견할 수 없어 책임을 물을 수 없다는 난관을 극복하는데 도움이 된다.

(3) 예측곤란성과 관련한 문제

현 단계에서 인공지능의 예측곤란성이 미치는 위험은 단정하기 어렵지만, 인공지능이 발전되어 다재다능한 시스템이 개발되면 예측곤란성과 관련된 각종 문제가 빈번하게 발생 할 것이다.61) 인공지능의 축이 머신러닝 기법으로 옮겨짐에 따라 이러한 예측곤란성으로 인한 문제는 더욱 심각해질 것이다. 최근에 문제된 Microsoft의 인공지능 모바일 메신저

‘테이(Tay)’가 일으킨 막말 파문은 인공지능 동작의 예측곤란성과 제어의 어려움을 보여준 다. 당초 트위터에서 10대들과 대화를 나누며, 그들의 대화 주제 등을 익히도록 설계된 ‘테 이’가 그 학습과정에서 엉뚱한 말과 생각을 배워, “히틀러가 옳았다. 9/11사건은 내부자 범 행이다.”라는 막말을 한 것이 크게 문제가 되었다.62)이 사태의 책임을 설계자 또는 개발자 에게 묻는 것이 맞는가? 원래 손해에 대한 기존의 책임은 과실책임과 엄격책임(무과실책 임)으로 대별되며,63)과실책임은 계약책임과 계약외 책임으로 나누어지고, 계약 외 책임은 불법행위책임이 중심을 이루는데, 계약책임으로 구성하든 불법행위로 구성하든 본질적으 로 주의의무 위반이 전제되어야 하고, 주의의무를 위반하여 손해를 야기한 것이라야 하며, 이러한 주의의무 위반과 손해 사이의 인과관계가 입증되어야 한다.64)불법행위이든 계약책 임이든 구체적으로 책임을 지울 자가 있는 것을 전제하는데, 엄밀히 말해서 설계자나 프로 그래머, 생산자는 인공지능 시스템을 출시한 후 사용되는 과정에서 그것이 어떻게 동작할

60) Jeffery K. Gurney, “Sue My Car Not Me”, 2013 U. Ill. J.L. Tech. & Pol'y 247(2013), p.259.

61) Matthew U. Scherer, supra note 17, at 369.

62) https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash- course-in-racism- from-twitter(2016. 10. 1. 최종방문).

63) David G. Owen, “BENDING NATURE, BENDING LAW”, 62 Fla. L. Rev. 569(2010), p.572.

64) 백경희/이인재, 앞의 글, 12-13쪽.

(20)

지 예측키 어렵다. 왜냐하면 머신러닝 기반의 인공지능 시스템은 인간 학습과는 인지적 관 점에서 다르지만 그 사용 단계에서 경험을 통해 배우고 성능이 계속 향상되기 마련이고,65) 이러한 상황에서 머신러닝을 통한 진화를 제어할 수 없는 설계자에게 기존의 책임론에 따 라 책임을 지우기는 어렵다. 그렇다고 해서 인공지능 시스템을 사용하는 소유자 등에게도 어떤 책임을 묻는 것도 쉽지 않다. 인공지능 시스템을 제어할 수 없었다는 점은 마찬가지이 기 때문이다. 따라서 기존 책임론에 따르면, 설계자나 일반 소유자․사용자와 같이 인공지 능의 오작동으로 인한 손해 가능성에 대한 예견가능성이 전혀 없는 경우까지 손해에 대하 여 책임을 묻는 것이 인과관계상 어렵다. 문제는 (인공지능) 과학이나 기술의 발전으로 인 해 기업들이 이익을 누리는 반면 인류는 그로 인해 알 수 없는 새로운 위험에 직면하게 되는데 예측곤란성이란 개념 때문에 (인공지능 개발) 회사 등은 그들이 통상 예견할 수 있 는 범위를 넘어서는 (위험으로 인한) 손해에 대한 법적 책임 귀속에서 보호받게 되고,66) 그로 인해 피해자의 손해전보는 어렵게 된다는 점이다. 예측곤란성 때문에 설계자나 개발 자의 책임이 면제되는 것 자체도 문제가 있지만, 인공지능의 오작동으로 인한 손해에도 불 구하고 피해자가 아무런 손해보상을 받지 못한다거나, 불법행위 등 인과관계의 입증에 대 하여 책임 일반론에 따라 피해자가 입증책임을 지는 것은 피해자에게 너무 가혹하다. 따라 서 기존 책임론의 방식은 문제가 있어 그 대안으로 제조물책임이나 보험 등에 의한 해결방 안이 고려될 수밖에 없는 것이다. 사람이 전혀 예측할 수 없는 해법을 제시하는 인공지능 프로그램의 매력이 개발자나 제조업자의 경제적 이욕과도 연결된다는 점에서 이런 기존 책임론의 논법과 다른 고안이 필요하다. 즉 개발자나 제조업자는 다소간의 위험을 무릅쓰 더라도 경제적 이욕 때문에 위험이 수반되는 인공지능 개발을 포기하긴 어렵다. 나아가 개 발자 등이 머신러닝 등 인공지능이 가지고 있는 여러 가지 위험성에도 불구하고 인공지능 시스템을 개발한 이상, 머신러닝 등으로 인한 예측 불가능상황까지 책임을 지겠다는 의도 가 있다고 간주하는 것이다. 사람이 전혀 예측할 수 없는 해법을 제시하는 인공지능 프로그 램의 매력은 경제적 이욕과도 연결되어 있기 때문에 개발자는 이러한 예측불가능성으로 인한 책임 가능성에도 불구하고 인공지능 시스템을 개발한 것이라고 볼 수밖에 없다.67)결 국 불가예측성은 다분히 개발자나 설계자에 의하여 의도된 것이며, 개발자나 설계자는 그 와 같은 인공지능 시스템의 사용으로 인한 (예견의 범위를 넘어선) 손해에 대하여 도 감수

65) Harry Surden, “Machine Learning And Law”, 89 Wash. L. Rev. 87(2014), p.89.

66) David G. Owen, supra note 63, at 571.

67) Matthew U. Scherer, supra note 17, at 365.

(21)

하겠다는 의도가 있었다고 봄이 상당하고, 정도의 차이가 있긴 하지만 그런 인공지능 시스 템을 사용하는 소유자나 작동자에게도 책임을 물어야 할 상황이 있을 수 있다. 소유자나 작동자가 인공지능 시스템이 가지고 있는 위험성에 대하여 인지하면서도 감히 그것을 사 용하기로 하였다면, 그로 인한 예측 불가능의 결과까지도 감수하겠다는 의사가 있었다고 봄이 상당하기 때문이다.68)그렇다고 하면, 이러한 설계자나 개발자에게 그 인공지능 시스 템이 야기한 손해에 대하여 전적으로 책임을 지도록 규정하는 것이 필요한데, 이러한 점은 제조업자에 대한 엄격책임 법리와도 일맥상통한다.

물론 이런 권리주체 간의 책임의 분배․조정에 있어 예측곤란성에 따라 그 기준이 엄격 히 규정되어야 한다. 먼저 누구에 대한 책임배분이냐를 먼저 고려하여야 한다. 우선 일반 사용자로서는 인공지능의 블랙박스69)의 성격 때문에 인공지능 시스템의 오류나 그로 인한 손해발생을 예측한다는 것은 불가능하다. 따라서 일반 사용자에게 인공지능 시스템의 작동 상 유의점 등에 대한 충분한 고지가 없었던 경우까지 인공지능 작동이 야기한 손해에 대하 여 책임을 지도록 하는 것은 가혹하다.70) 다만 인공지능 시스템이 가지고 있는 설계상의 본질적 한계 등 때문에 예기치 않은 오류가 발생할 수 있고, 그로 인해 현실적으로 어떤 손해가 발생할 수 있다는 점을 충분히 인식하고 있었다면, 일반사용자라도 그 오류로 인한 손해에 대하여 책임을 져야 할 것이다. 개발자나 설계자의 경우는 이러한 시스템을 설계하 고, 작동과정에 대하여 제어가 가능하였다는 점에서 인공지능 시스템의 불투명성으로 인한 손해에 대하여 일반사용자와는 달리 접근해야 한다. 그렇다고 하더라도 머신러닝 기법이 인공지능에 도입되면서 생긴 변화 즉 개발자 등 그 분야의 전문가에게조차 그 작동과정이 나 진화수준을 가늠키 어렵게 되었다는 측면의 불투명성은 여전히 문제된다. 머신러닝의 특징 상 개발자는 전반적인 작동의 틀만 정한다. 그런데 그 틀을 정할 때 인공지능의 작동 이 애초 설계 단계의 규칙이나 지식에 의하도록 하는 것이 아니라, 학습을 통해 진전되도록 설계가 된다. 따라서 학습의 진전 정도나 깊이에 따라 개발자조차 예견하기 어려운 능력을 갖기도 하고, 그 작동 방향도 예측키 어렵다. 이러한 경우 그로 인한 위험을 예상하고 제어 하는 데 상당한 어려움이 따른다. 이와 같은 머신러닝의 고위험적 성격을 감안하면서도 그

68) id at 366.

69) 입력에 따라 그에 따른 출력이 보이는 장치나 시스템을 의미하는 블랙박스는 그 내부에서 어떠한 일이 일어날지 알 수가 없어 불투명하다는 의미에서 블랙이라는 단어가 사용되었다. 블랙박스 시 스템으로 설명이 가능한 것으로는 인간의 마음, 알고리즘 등이 있는데, 인공지능의 작동과정 또한 이 개념이 들어맞는다.

70) F. Patrick Hubbard, “Sophisticated Robots: Balancing Liability, Regulation, And Innovation”, 66 Fla. L. Rev. 1803 (2014), p.1824.

(22)

기법을 사용하여 시스템을 개발하였다는 점에서 그 개발자나 제조업자는 인공지능 시스템 이 야기한 손해에 대하여 책임을 져야한다.

(4) 자율성과 관련한 문제

설계 과정에서 자율성이 부여된 인공지능을 일정한 제어 하에 두는 것은 어렵다. 이러한 제어 상의 난점과 법적 책임은 어떤 연관이 있는가? 인공지능이 스스로 배우고, 적응하도 록 설계한 이상, 인공지능이 일단 제어를 벗어나는 상황이 되면 사람이 다시 제어권한을 얻는 것이 어렵다.71)이런 상황은 인간에 의해 야기된 기존의 다른 위험 양상과는 완전히 다를 뿐만 아니라, 그 규모 면에서 훨씬 큰 잠재적 위험이 될 수 있다. 따라서 이러한 위험 을 야기한 경우 보다 엄격한 책임, 즉 무과실책임을 물어야 할 것이다.

물론 일반적 통제권 상실이 바로 위험으로 직결되지 않는데, 인공지능의 목적이 공공의 이익과 일치한다면 문제가 없다. 그러나 말이 쉽지 목적이나 이익의 일치는 어렵다. 특히 인간의 가치라는 것은 명확히 정의기 어려운 문제다. 인공지능의 경우 그 목표는 최초 프로 그래밍 시에 결정되는데, 설사 상황과 경험에 따라 그 목표를 수정하도록 해놓아도, 애초의 프로그래밍에서 설정한 목표에서 크게 벗어나기 어렵다.72)그러나 최초 프로그래밍을 통해 어떤 목표를 달성하도록 설계한 경우, 그 목표 달성으로 인한 결과가 애초 프로그래밍 당시 의 프로그래머의 주관적 의도와는 다르더라도 인공지능 시스템은 계속 그 설정한 목표의 달성을 위해 작동할 것이고, 그로 인해 예기치 않은 참극이 일어날 수 있다. 이것이 어떤 설계상의 잘못이 아니라는 것이 문제다. 인공지능은 인간의 주관적 의도를 고려할 수 있도 록 설계되지 않았기 때문이다. 인간과는 달리 인공지능은 사람이 의미하는 바를 그대로 받 아들일 뿐, 사람이 쓰는 단어의 뉘앙스 등의 파악을 할 수 없기 때문에 엉뚱한 결과를 초래 할 수 있는 것이다. 인공지능이 점점 더 강력해지고, 정교해지고, 자율적이 됨에 따라 통제 와 감독에 문제가 생기는 존재론적 위험의 타당성을 반드시 받아들여야 한다는 것은 아니 다.73)인공지능 시스템은 이미 주식거래와 같은 명령을 인간의 실시간 개입이 불가능한 나 노초의 수준에서 자동적으로 수행할 수 있으며, 2010년 플래시 클래시(flash clash) 사태74) 를 통해 이러한 알고리즘 거래시스템이 지극히 짧은 시간에 막대한 경제적 영향력을 보일 수 있음을 보여주었다. 이런 점 때문에라도 인간이 이런 정교한 인공지능 시스템에 대한 71) Matthew U. Scherer, supra note 17, at 367.

72) id at 368.

73) id.

74) https://en.wikipedia.org/wiki/2010_Flash_Crash(2016. 11. 15. 최종방문).

(23)

통제수단을 유지할 필요가 있다. 심지어 강한 인공지능이 그들의 행동을 제어하려는 인간 의 노력에 저항할지도 모르며, 그것으로 인해 파국에 이를지도 모른다고 경고하는 이도 있 다.75) 따라서 설계와 개발 과정에서 이러한 제어수단 강구가 제대로 되지 않은 경우, 그 파국적 결과에 대하여 개발자나 제조업자에게 엄격책임을 물어야 하는 것이다.

3. 형사적 책임 귀속

체화되지 아니한 인공지능 자체가 범행을 할 가능성은 거의 없고, 따라서 인공지능의 형 사책임 논의는 인공지능 로봇을 전제해야 한다. 인공지능 로봇의 존재가 사회질서에 대한 위협이 될 수 있지만 그렇다고 해도 인공지능 로봇에게 그것을 만든 개발자나 제조자, 사용 자와 별개로 형사책임을 물을 수 있는가는 성급한 논의다. 현재의 수준을 감안하면 인공지 능 로봇이 형사법적 책임의 주체가 될 가능성은 요원한 일이다.76) 갱생이나 범죄억지 (deterrence)가 (인공지능)로봇에게 적용될 수 없으므로 로봇을 도덕 주체(Moral Agent)로 서 처벌한다는 것 자체도 문제다.77)미래학의 관점이 아니라면 인공지능 로봇에 대한 형사 법적 책임 부여는 무리라고 보인다. 따라서 인공지능 로봇의 책임이 아닌 인공지능 로봇개 발이나 사용과 관련한 책임의 검토가 중심이 되어야 한다. 인공지능 로봇을 이용하여 범행 을 한 프로그래머나 개발자가 인공지능 로봇이 행한 범죄의 결과에 대하여 책임을 져야한 다는 점은 크게 의문이 없다. 다만 그 책임형식에 있어서는 인공지능 로봇을 도구에 불과하 다고 보고,78)마치 흉기를 이용하여 어떤 범행을 한 것과 동일한 형태의 책임을 부여하는 식이 될 것이다. 즉 인공지능 로봇을 이용하여 사람을 폭행한 경우는 위험한 물건을 휴대하 고 사람을 폭행한 것으로 보아 특수폭행의 책임을 져야 한다. 즉 인공지능 로봇은 단순한 도구에 불과한 것으로 간주된다. 다만 인공지능 시스템의 임무 수행과정에서 설계와는 달 리 어떤 위법행위를 하여 피해가 발생한 경우 어떤 식으로 책임을 물어야 할 것인가가 문 제될 수 있는데, 전형적 과실범 형태로서 접근하여야 할 것이다. 나아가 애초부터 인공지능 을 이용하여 범행을 하려한 경우라도 설계자나 개발자가 의도한 범행보다 더 큰 결과가

75) Matthew U. Scherer, supra note 17, at 368.

76) Patric Lin et al, “Autonomous Military Robotics: Risk, Ethics, and Design”, Ethics+Emerging Sciences Group(2008), p.59.

77) Gary E. Marchant et al, “International Governance of Autonomous Military Robots”, 12 Colum.

Sci. & Tech. L. Rev. 281(2011), p.281.

78) Gabriel Hallevy, “Unmanned Vehicles: Subordination to Criminal Law”, 21 J.L. Inf. & Sci.

200(2011), p.203.

(24)

발생한 경우도 상정할 수 있다. 예를 들어 은행 강도를 하도록 인공지능을 프로그램 하였는 데, 정작 은행 강도 범행 과정에서 사람을 살해한 경우이다. 이런 경우는 과실범 형태로서 책임을 묻는 것은 옳지 않다. 일반적으로는 그 초과부분에 대하여 질적 초과인지, 양적 초 과인지에 따라 교사의 책임을 달리하는 것이 통상적이지만, 인공지능을 이용한 경우에도 그러한 법리가 그대로 들어맞는지는 보다 심층적인 검토를 요한다. 인공지능과 인간 간에 교사와 정범의 실행이라는 구조를 그대로 적용하기에는 문제가 있기 때문이다. 어떤 식으 로 법리를 구성하든지 애초의 의도한 범행이 아니라, 실제 이루어진 범행에 대하여 책임을 져야 한다는 것은 분명해 보인다. 나아가 프로그래머 등 인간의 형사적 책임과는 별개로 인공지능 자체의 형사책임을 물을 수 있는가 하는 문제도 언젠가는 검토해 보아야 할 과제 인지 모르지만 인공지능과 인간 간의 구별점이 없어질 정도로 고도화된 인공지능이 출현 할 지는 의문이다.

Ⅵ. 결어

인공지능이 여러 분야에서 화두로 떠오른 현 시점에서 법학에서도 다양한 관점의 논의 가 뒤따를 것으로 보인다. 현재의 인공지능은 제3세대라고 분류해도 좋을 만큼 그동안 부 침을 거듭하면서도 꾸준한 진전을 보이고 있으며, 그 영향력은 전방위적이다. 그러나 단언 컨대 인공지능과 관련한 법적 논의는 미국과 같이 비교적 선도적이라 보이는 국가에서조 차 인공지능의 현실과는 동떨어져 있는 경우가 허다하다. 논의되는 대상조차 인공지능의 본질과 동떨어진, 인공지능의 옷을 입은 기존 논의의 되풀이다. 예를 들어 언론 등에서 소 개되는 자율주행자동차와 관련한 미국의 논의는 인공지능의 본질과는 무관한 ‘정의’등에 관한 기존 논의를 인공지능으로 포장한 것이다. 기존의 낡은 법학적 논의를 로봇이나 자율 자동차와 같은 인공지능 응용 분야에 적용한다고 해서 인공지능과 관련한 법률적 논의가 되지는 않는다.

본고에서는 인공지능 개발이 가지는 본질적 특성에서 나오는 위험의 규율에 대하여 다 루어보았다. 인공지능의 위험은 위험사회라고 규정되는 현대에서도 독특하다. 그러나 첨단 과학 기술로 야기되는 각종 위험과 유사한 측면도 없지 않다. 첨단과학으로 인한 위험의 규제에서 기존의 법적 규율체계만 가지고는 많은 어려움이 있었던 것도 사실이다. 이러한

(25)

점은 인공지능 개발로 야기되는 법적 위험의 규율에도 마찬가지다. 따라서 인공지능의 본 질에서 대한 이해를 고민의 출발 선상에 놓아야 한다. 그런 점에서도 제1세대적 인공지능 에 기초한 기존의 논의가 재탕되어서는 아니 되는데, 국내 인공지능 논의에서는 그런 면이 엿보인다. 인공지능에 대한 논의가 거의 없던 단계에서 인공지능에 대한 다양한 논의가 전 개되는 상황으로의 변화는 바람직하지만, 그러한 논의는 인공지능에 대한 제대로 된 이해 의 전제 위에서 이루어져야 한다. 인공지능에 대한 얄팍한 이해를 바탕으로 접근할 경우, 법학적 관점에서의 논의의 심도를 떠나 다른 분야의 전문가로부터 무시당하기 십상이다. 따라서 인공지능에 대한 기존의 기호학적 접근은 가능한 한 자제하고, 머신러닝 등 현재의 인공지능을 지지하는 이론에 대한 이해에 기초한 실질적 연구가 필요한 시점이다.

참조

관련 문서

조선대학교는 저작물의 이용허락 이후 해당 저작물로 인하여 발생하는 타인에 의한 권리 침해에 대하여 일체의 법적 책임을

조선대학교는 저작물의 이용허락 이후 해당 저작물로 인하여 발생하는 타인에 의한 권리 침해에 대하여 일체의 법적 책임을

조선대학교는 저작물의 이용허락 이후 해당 저작물로 인하여 발생하는 타인에 의한 권리 침해에 대하여 일체의 법적 책임을

조선대학교는 저작물의 이용허락 이후 해당 저작물로 인하여 발생하는 타인에 의한 권리 6.. 침해에 대하여 일체의 법적

조선대학교는 저작물의 이용허락 이후 해당 저작물로 인하여 발생하는 타인에 의한 권리 침해에 대하여 일체의 법적 책임을

조선대학교는 저작물의 이용허락 이후 해당 저작물로 인하여 발생하는 타인에 의한 권리 침해에 대하여 일체의 법적 책임을

조선대학교는 저작물의 이용허락 이후 해당 저작물로 인하여 발생하는 타인에 의한 권리 침해에 대하여 일체의 법적

조선대학교는 저작물의 이용허락 이후 해당 저작물로 인하여 발생하는 타인에 의한 권리 침해에 대하여 일체의 법적 책임을