여러분, 오늘은 'AI(인공지능)와 법률'이란 수업에서 중간고사 대체과제로 제출한 'AI의 권리능력과 의사능력을 논함'이라는 리포트 내용을 소개하네요. 이 소논문을 쓰기 위해 구글을 뒤지다 잘 건진 두 문건이 큰 도움이 되었심다. 하지만 원석들을 열심히 읽고 제 테마 목적에 잘 부합하게 가공한 소생의 솜씨도 늙었지만 아직은 '썩어도 준치'라는 값을 모처럼 한 것 같네요..
담당교수나 제게도 생소한 분야라 각주가 많이 붙은 글이기에 일독하기 편하게 아래한글 리포트 원문도 중요문건 2개와 함께 같이 첨부함미다.
==============
AI와 법률 중간고사 대체 리포트
작성자 : 김재민(1020****, 법학과 2년)
과목: AI와 법률
담당교수: 서봉석 교수
제출일: 2021. 4.16.
과제 제목: AI(인공지능)의 권리능력과 행위능력
<내용목차>
1. AI의 사실적 개요
2. AI의 법인격(전자적 인간) 부여 문제
3. 자연인과 법인의 권리능력과 행위능력
4. AI의 권리능력과 행위능력 인정을 위한 법제도 정비 방향
1. AI의 사실적 개요
1.1. 용어적 정의
AI(인공지능)는 인간의 지능을 기계 등에 인공적으로 구현시켜 인간의 학습능력, 추론능력, 지각능력을 더 우월하게 수행하는 컴퓨터 프로그램 또는 이를 포함한 컴퓨터 시스템이라 할 수 있으며, 하나의 총체적인 인프라 기술이기도 하다1).

<인공지능망>
구체적으로 인간의 지능으로 할 수 있는 문장이해, 영상인식, 음성인식, 기계적 학습(머쉰 러닝과 딥 러닝) 등을 컴퓨터가 실행하는 영역으로써 ‘컴퓨터적 두뇌’라고도 불린다.

<인공지능의 구성요소>
1.2. 접근방식 개념상의 분류
AI는 개념적으로 ‘약한 인공지능’과 ‘강한 인공지능으로 분류될 수도 있는데2), 전자는 특정분야에 국한하여 인간의 지능적 행동을 모방하려는 접근방식으로써 그 중심에는 인간이 고유한 사고과정을 통해 도출되는 결과와 유사한 수행결과를 인공지능이 이끌어내도록 돕는데 있다.
최근에는 데이터베이스(DB)의 규모가 커지고, 사물인터넷을 통해 정보가 저장되고 전송되는 연결성의 범위가 확대됨에 따라 ‘약한 인공지능’의 아류로써 ‘기계학습’(머쉰 러닝)이라 명명된 새로운 인공지능 방법론에 의해 제한적이지만 어느 정도의 자율성을 AI에 부여한다. 그리하여 현재 이미지인식, 음성인식, 번역 등의 분야에서 상당한 성과를 내고 있다.
반면 후자인 ‘강한 인공지능’에서는 인간의 사고과정에 대해 더욱 정확한 이해를 바탕으로 알고리즘3) 작성이 축적될수록 컴퓨터 역시 모든 분야에서 고도로 복잡하고 엄청난 지적능력을 요구하는 사안을 고급인간처럼 자율적으로 결정 내리는 것은 물론, 인간적 감정까지도 구비할 수 있는 경지의 인공지능을 구현하려 한다.
하지만 현재까지는 인간과 같은 감각기관의 작용, 운동, 의사소통 등을 수행하는 데 있어 넘어야 할 한계를 뚜렷하게 보이고 있다. 이런 점에서 1980년대에 보고된 ‘모라벡의 역설’4)(Moravec’s Paradox) 현상이 여전히 유효한 것으로 받아들여진다. 그리하여 ‘강한 인공지능’ 대신 곧 문제가 현실로 나타나게 될 ‘약한 인공지능’을 전제로 법제도 정비를 논의하려는 경향이 더 타당한 듯 여겨지고 있다.
2. AI의 법인격(전자적 인간) 부여 문제
2.1. 유럽연합(EU)의 ‘로봇기술분야 규율에 관한 가이드라인’
EU는 2012년부터 인간과 AI 로봇의 법적관계를 규율하는 법안 마련을 위해 정책연구를 진행해 왔으며, 2014년 9월 ‘로봇기술분야 가이드라인’을 통해 그 결과를 발표했고, 2016년 5월 그 가이드라인을 토대로 한 민법상 규율 초안을 EU집행위에 제출하였다. 이후 법제사법위는 관련 분과위의 의견을 수렴하여 수정된 보고서를 EU의회 본회의에 상정했다.
EU의회는 2017년 2월 다시 수정된 내용의 권고안을 채택함으로써 집행위에 권고 지침들의 입법화 절차에 대한 적절한 제안을 제출하도록 권고했다. 제출된 가이드라인은 한편으로는 EU시장에서 로봇산업의 혁신촉진으로 경쟁력을 갖출 산업환경을 조성하고, 다른 한편으로는 AI기술 개발로 인해 야기될 수 있는 유럽시민들의 기본권 침해를 보호할 수 있는 법적·윤리적 기준의 선제적 수립을 목적으로 한다.
여기에서 로봇공학 기술은 로봇과 AI가 인간을 대체하는 것이 아니라 인간에게 도움을 줄 수 있는 방향으로 발전되어야 하고, 기계에 대한 인간의 통제권은 항상 보장되어야 함을 분명히 한다. 자주 언급되는 아이작 아시모프의 ‘로봇 3원칙’5)이 유효한 가운데 기계가 자의식을 형성할 때까지 로봇이 준수해야 하는 원칙이 아닌 설계자, 생산자, 그리고 이용자에 대한 윤리적 규약이 수립되어야 함을 확인시켜 준다.
2.2. 정책적 고려에 의한 ‘전자적 인간’의 지위 부여
EU는 언급한 윤리적 규약들이 자율주행차, 수술로봇, 인공기관, 돌봄로봇 등 특정분야에 따라 설계자, 생산자, 사용자가 자신의 행동이 올바른 것인지 여부를 결정할 수 있게끔 맞춤형의 틀을 구성해야 함을 제안했다. 아울러 이 윤리적 틀은 법적 문제를 해결하는 근거가 아닌, 보완적 규범에 그친다는 점도 명백히 했다.
로봇과 AI의 행위와 야기시킨 손해에 대한 인과관계가 인정되면 ‘엄격책임 원칙’6)(strict liability)을 적용하여 ‘배상책임을 인정하는 입법적 수단의 도입’이 제시되었다. 이렇게 법적 규제와 관련하여 전문성을 제공하고, 기술발전과 함께 발생되는 새로운 기회와 문제점들에 적시 대응할 수 있는 로봇기술과 AI에 대한 ‘유럽기관의 창설’도 요구했다.
여기에서 주목할 만한 것은 로봇에 ‘새로운 법적지위’를 부여하도록 요청한 점이었다. 매우 정교하고 고차원적인 AI는 ‘전자적 인간’(electronic person)이라는 법적지위 속에 자율적 판단을 내리는 경우 ‘전자적 인격성’을 부여하거나 제3자와 독립적으로 상호작용하게 하는 등 특별한 권리와 의무를 부여하자는 것이었다7).
하지만 한번 더 명심해야 할 중요한 점은 EU가 AI에 ‘전자적 인간’의 지위를 부여한 것은 AI가 사회성을 가지거나 윤리적 존재이기 때문이 아니라 어디까지나 ‘정책적 필요’에 의해 그리했다는 데 있다. 따라서 AI라는 새로운 행위자에 대해 법적 주체성을 부여하기 위해 기존의 인간중심 법체계를 ‘탈인간적 법체계’로 전환하는 것은 시기상조라고 보는 것이다.
물론 언젠가 AI가 인간과의 의사소통을 통해 정서적 유대와 친밀감을 형성할 수준까지 진화된다면, 사회적 상호성을 토대로 한 AI의 법적 주체성을 기꺼이 인정할 수 있을 것이다. 그렇지만 현재의 AI 기술수준을 고려할 때 AI와 인간의 관계는 여전히 도구적이거나 가까운 장래에도 ‘제한적 공존’ 관계에 불과할 것이라 봄이 타당하다.
결론적으로 현 시점에서는 우리도 EU의 사례를 적극 참조하여 인간중심의 법체계에 대한 예외로써 정책적 필요에 따라 특정분야의 사안별로 AI에 ‘제한적인 법적 주체성’을 부여하는 것이 가장 그럴 듯한 대안일 것이라 판단된다.
3. 자연인과 법인의 권리능력과 행위능력
3.1. 권리능력
권리(權利)란 인간이 자신의 자유의지에 따라 일정한 이익을 향유할 수 있도록 ‘법이 인정한 힘’을 뜻한다. 다시 말해, 인간(자연인)과 집단(법인)이 국가, 사회, 단체 활동을 함에 있어 어떤 일을 주체적으로 자유롭게 처리하거나 타인에 대하여 당연히 주장하고 요구할 수 있는 정당한 자격이나 힘을 의미한다.
한편 권리능력이란 어떠한 권리를 가질 수 있고, 거기에 준하는 의무를 부담할 수 있는가의 그 어떤 추상적 자격을 뜻한다. 예를 들어 산업재산권이나 특허 등에 대한 권리의 주체가 될 수 있는 자격이 그것이다.
우리 민법에서는 권리가 귀속되는 주체를 권리주체라 하며 이 주체가 되기 위해서는 권리능력이 있어야 한다. 이런 권리능력을 가진 주체를 우리를 비롯한 여러 나라에서는 현재까지 ‘자연인’8)과 ‘법인’9)으로만 나눈다.
3.2. 행위능력
행위능력이란 의사능력10)을 가진 권리주체인 자연인이나 법인이 타인의 도움없이 단독으로 유효한 법률행위를 할 수 있는 능력을 뜻한다. 여기서 법률행위는 ‘일정한 법률효과를 발생시키는 의사표시를 요소로 하는 핵심적 법률요건’을 의미한다.
행위에 흠결이 있는 경우 법률행위는 일단 유효하지만, 취소되면 소급하여 무효가 된다. 또 여기에서 책임능력이란 용어도 등장하는 데, 이는 불법행위의 책임을 식별·파악할 수 있는 지능이나 인식능력을 뜻한다.
행위능력이 없는 자는 보호능력을 필요로 하는 자이며 우리 법에서는 ‘19세 미만의 미성년자’와 ‘피한정 후견인’11)(被限定後見人)을 칭한다. 후자인 ‘피한정 후견인’은 원칙상 행위능력이 있다고 인정되나 한정 후견인의 동의를 받아야만 법률행위를 할 수 있다고 규정되어 있다. 이들은 ‘제한능력자’로도 불린다.
행위능력이 없으면 예를 들어 ‘산업재산권 출원’ 같은 법률행위를 하지 못한다. 따라서 이들 완전한 행위능력이 없는 제한능력자들은 ‘법정대리인’12)(法定代理人)을 통해서만 산업재산권에 대한 절차를 밟는 행위를 할 수 있게 된다.
4. AI의 권리능력과 행위능력 인정을 위한 법제도 정비 방향
4.1. 미성년적 제한능력자로서 AI의 권리능력과 행위능력 인정
유럽의회가 AI에 ‘전자적 인간’의 법인격을 부여하자는 제안을 받아들여 우리사회도 가까운 장래에 자연인과 법인에 이어 ‘제3의 법인격’으로써 AI를 받아들일 채비를 해야 한다.
물론 아직까지는 인간과 같은 감정과 공감능력을 구비한 ‘강한 AI’가 등장할 때까지 시간이 더 필요할 것13)이라 여겨지기에 그 시기가 도래하기 전까지는 ‘미성년적 제한능력자’로 AI를 간주하며 ‘피한정 후견인’이 있다는 전제 하에 권리와 의무를 행할 수 있는 ‘권리능력’과 법률행위를 구사할 수 있는 ‘행위능력’을 가진다고 제한적으로 인정해 주어야 할 것이다.
때가 되어 ‘강한 AI’ 시대가 일상화되면 후견인이 필요없는 독립적인 법인격체로써 현재의 자연인과 법인을 더하는 방향으로 기존법률체계를 확대 개편할 수 있다는 사회적 합의를 정착시킬 필요가 있다.
4.2. 후견인 시대의 법제도 정비 방향
제한능력자로써 후견인이 필요한 ‘약한 AI’ 시기에는 후견인이라 할 수 있는 AI의 개발자와 생산자가 윤리적인 사고과정 없이 효율성에만 집착해 무자비한 인공지능을 만드는 것을 저지해야 한다. 대신 정신의학적으로나 신경학적 지능회로를 장착한 인간다운 따뜻한 감성과 배려심 있는 공감능력을 가진 인공지능을 만들 수 있도록 유도하는 법제도를 정비하는 것이 타당하다 보여진다.
이를 위해 AI의 개발과정과 활용 방법이 투명하게 공개되도록 하는 법제정이 그 무엇보다 우선적으로 필요하다. 예를 들어 사법, 보건의료, 복지, 교육분야의 핵심 공공기관들이 ‘블랙박스 알고리즘’14)을 사용하지 못하도록 법을 만들어야 할 것이다.
개발자들은 흔히 보안이나 영업이익 보호를 위해 시스템 처리과정을 공개할 수 없다고 주장해 왔지만, 적어도 공공정보나 인권과 직결된 사안은 해당 AI의 알고리즘이 ‘정당한 방식’(due process)으로 처리되고 있는지를 투명하게 들여다 볼 필요가 있기 때문이다. 여기에 반대하는 자들은 무작정 개방과 공유를 요구하면 오히려 기술발전을 저해할 수도 있다고 반박한다.
하지만 더 많은 이들이 인터넷의 발전과정에서처럼 모든 것을 공개하고 논쟁적인 사안마다 끊임없는 토론과 수정을 거침으로써 편향된 고착 요인들을 사전에 제거해 오늘날의 네트워크 세상을 세울 수 있었던 튼튼한 기반을 만들었다고 재반박한다.
그 다음, AI가 야기한 손해(사고) 발생시 그 책임의 후견인 격 귀속주체인 개발자와 생산자에게 책임과 의무를 어떻게 재분배할 것인가에 법적 정비도 필요하다.
개발과정에 참여한 다수의 공정파트 개발자들에게 개별적 책임소재를 묻기가 현실적으로는 너무 복잡하고 어렵기 때문에 해상에서의 공동해손 개념15)을 원용하여 안전성이 결여된 설계결함이 발생했을 경우 설계과정에 참여했던 모든 파트가 사고확률 가중치를 적용한 공동책임을 지게 하는 법을 제정해야 할 것이다.
마지막으로 생산자(제조자)에게는 기존의 ‘제조물책임법’16)에 기반하여 AI의 특성을 반영할 ‘별개의 책임요건’을 법적으로 규정할 필요가 있다. 제품생산과 가공과정에서 주어진 설계도에 따라 하자없이 생산했다 하더라도 ‘새로운 잠재적 사고’ 발생 책임에서 완전히 자유로울 수는 없다. 예측하기 어려운 발생에 대한 제어수단 강구책이 없고, 신중하지 못한 유통이 이루어졌다면 소위 ‘무과실책임’17)이 사후적으로 적용되는 것이다.
------------------------------
1) 인간을 포함한 동물이 갖고 있는 지능 즉, ‘natural intelligence’와는 다른 개념이다.
2) 박종보/김휘홍, “인공지능기술의 발전과 법적 대응방향”, In: 법학총론 34집 2호(2016), p. 40
3) 알고리즘은 우리가 어떤 문제를 해결할 때 그 절차를 알기 쉽도록 기술하는 논리적인 절차과정을 의미하며, 컴퓨터 프로그램에 기술된 실행 명령어들의 순서를 가리킨다. 최근 AI 분야에서 주목을 받고 있는 기계학습, 더 나아가 딥 러닝(deep lerarning)도 수많은 표본을 바탕으로 입력값(input)과 출력값(output) 사이의 연관성을 반복적으로 학습하는 알고리즘의 일종이다.
4) 로봇공학도인 한스 모라벡이 설파한 동 역설은 ‘인간(로봇)에게는 어려운 일이 로봇(인간)에게서는 쉽다’는 현상을 말한다. 즉 인간에게 어려운 논리연산과 추론 등이 로봇에게는 식은 죽 먹기지만, 인간에게서는 아무 것도 아닌 일상적 행동(달걀집기, 달걀 던져 손으로 잡기, 눈으로 보고 느끼기 등)들은 후자에게 엄청난 양의 연산 리소스를 필요로 하게 하거나 아예 불가능하게 할 때가 많다는 것이다.
5) 동 원칙은 다음의 세 원칙이다: 첫째, 로봇은 인간에 해를 끼치게 행동해서는 안된다. 둘째, 로봇은 인간의 명령에 복종해야 하며, 단 첫 번째 법칙에 위배될 때는 예외로 한다. 셋쩨, 로봇은 스스로를 보호해야 하지만, 그것이 첫 번째와 두 번째 법칙과 상충될 때는 예외로 한다.
6) 양종모, “인공지능 위험의 특성과 법적 규제방안”, 홍익법학 제17권 제4호(2016), pp. 552-558
7) 유럽의회, ‘Commitee on Legal Affairs, p. 12, In: 박종보/김휘홍, “인공지능기술의 발전과 법적 대응방향”, 전개서, p. 52
8) 자연인은 일반적 사람을 뜻하며 우리 민법 3조에서 사람은 생존할 동안 권리와 의무의 주체가 된다고 규정하고 있다.
9) 현행 민법상에서는 법인도 권리주체로써 인정하는데, 그리 하는 것은 재단법인이나 사단법인 같은 단체가 중요한 법률생활의 단위로써 그 기능을 행해왔기 때문이다. 만약 법인제도가 없다면 사단법인의 경우 수많은 구성원이 모든 법적거래에 참여해야 하는 번거로움이 생기는데 이를 피하기 위해 해당단체에 법인격을 부여한 것이다.
10) 의사능력이란 사적자치의 전제로써 자신의 행위에 대한 의미나 결과를 변별하여 합리적으로 판단하고, 의사결정을 할 수 있는 정신능력을 의미한다.
11) 피한정후견인은 질병, 장애, 노령, 그 밖의 사유로 인한 정신적 제약으로 사무를 처리할 능력이 부족하여 가정법원이 한정후견개시의 심판을 한 사람을 말한다(민법 제12조). 2015년 민법 개정 전 ‘한정치산자’로도 불린 피한정후견인이 후견인의 동의가 필요한 법률행위를 그 동의 없이 하였을 때에는 후견인은 이를 취소할 수 있다(민법 제13조제4항). 그러나 일용품의 구입 등 일상생활에 필요하고 대가가 과도하지 아니한 법률행위는 후견인이 취소할 수 없다.
12) 법정대리인은 본인의 의사와 무관하게, 즉 수권행위(授權行爲)에 의하지 않고 대리권이 주어진 대리인을 말한다. 반대 개념은 '임의대리인'이다. 법률에 의하여 대리권이 주어진 경우뿐만 아니라 법원이 대리인으로 선임한 경우 역시 법정대리인이다. 보통 법정대리인이라고 하면 친권자 또는 후견인을 지칭하는 것으로 봐도 크게 틀리지 않다.
13) 런던 왕립대의 인지로봇공학부 머리 새너핸 교수는 인간수준의 인공지능은 빨라도 2100년이 되어야 등장할 수 있을거라 예측한다. In: 작자미상, “인공지능 시대와 인간의 조건”, 유네스코 뉴스(April 2018, Vol. 742), p. 7
14) 블랙박스 알고리즘이란 사용자가 입력 데이터와 출력 데이터는 열람할 수 있지만, 특정 입력 데이터가 특정 결과물로 나오는 과정은 외부에 공개되지 않는 시스템을 뜻한다, In: 전개서, pp. 7-8
15) 공동해손이란 화물을 적재한 선박이 해난을 만났을 때 그 선박 및 적하품의 공동안전을 위해 고의로 적하품을 해상에 투하해 발생한 희생손해 및 특별비용을 말하며, 이때 구조받은 선박, 적하품은 손해를 입은 선주와 화주들에게 공평하게 배분된다.
16) 제조물책임법(製造物責任法, Product Liability, PL법)은 제조되어 시장에 유통된 상품(제조물)의 결함으로 인해 그 상품 사용자의 생명, 신체나 재산에 손해가 발생한 경우에 제조자 등 제조물의 생산, 판매과정에 관여한 자의 과실 유무에 관계없이(=무과실) 제조자 등이 그러한 손해에 대하여 책임을 지도록 하는 법리를 말한다
17) 무과실책임(無過失責任) 또는 결과 책임이란 손해를 발생시킨 특정인에게 고의나 과실 여부와 상관없이 법률상 손해배상 책임을 부과하는 법리를 뜻한다. 무과실책임주의가 적용되는 사건에서는 피해자가 불법행위의 발생과 피고가 책임이 있음을 증명하기만 하면 된다. 과실 부주의 여부는 입증할 필요가 없다 (제조자가 입증해야 한다).
'법학스타디' 카테고리의 다른 글
법률신문-보험자 대위 (0) | 2025.03.28 |
---|---|
감춘 재물에 대한 점유권 관련 절도죄와 횡령죄 적용 여부 판단 (1) | 2025.03.28 |
친족상속법 기말고사 문항 답변서 (0) | 2025.03.28 |
친족상속법 중간고사 선택문항 답변서 (1) | 2025.03.28 |
독도 문제와 新한일어업 협정 (1) | 2025.03.28 |