바로가기 메뉴
본문 바로가기
주메뉴 바로가기
연구자료
인공지능은 어떻게 현실화되는가
  • 김윤명 역대 연구원
날짜2016.04.27
조회수14571
    • 인공지능에 대한 고민의 결과는 단순한 법제의 정비가 아닌 어떠한 법철학이 로봇과 인공지능에 적용돼야할 지에 대한 것이어야 한다. 그 자체가 SW이며 다양한 네트웍의 연결에 의해 구조화될 인공지능에 대한 법제도적 고민은 SW에 대한 이해와 인간에 대한 깊은 성찰로부터 시작되어야할 것이다. 현실에서 인공지능은 다양하게 시도되고 있다. 자율주행차가 대표적인 사례가 될 수 있다. 무엇보다도, 바람직한 선례로써 자율주행차의 성공은 인류를 위한 인공지능의 성공으로 귀결될 수 있기 때문이다.
    • 윤리는 프로그래밍될 수 있는가?
    • 자율주행차는 인공지능이 사람을 대신하여 운전을 하는 차를 말한다. 2016년 개정된 자동자관리법에서는 자율주행자동차를 “운전자 또는 승객의 조작 없이 자동차 스스로 운행이 가능한 자동차”로 정의하고 있다. 자동차관련 법률에서는 사고로 부터의 안전을 위해 사람이 반드시 탑승토록 하고 있다. 아직은 기술 수준이나 다른 환경이 마련되지 않아 사람이 탑승해야 하지만, 특이점(singularity)을 넘는 순간부터는 사람이 대체될 것이다. 이때는 사람의 판단이 아닌 인공지능이 판단을 내리게 될 것이다. 물론, 인공지능의 판단은 기술적이거나 기능적인 수준을 넘어서게 될 것이다. 또한 넘어서야 한다. 자율주행이나 인공지능은 사람의 통제 영역에 벗어나 있기 때문에 고도의 윤리가 프로그래밍될 필요성이 커지고 있다.
    • 그렇다면, 윤리는 프로그래밍화할 수 있는가? 윤리는 상대적인 개념이기 때문에 이를 객관화할 수 있는 것은 아니다. 인공지능이 기계학습을 통해 윤리의식을 높일 수 있는 지는 의문이다. 따라서 사람이 모든 경우의 수를 시뮬레이션하여 윤리적 판단에 대한 설계를 해야하는 것이라면, 이는 불가능한 영역으로 판단된다. 규제당국은 이러한 전제하에 자율주행차만의 운행을 허용할 수 있을지 의문이다. 다만, 자율주행차량간의 커뮤니케이션에 따라 주행 중의 사고는 줄일 수 있을 것으로 보이나, 사람과 자율주행차량간의 사고에 대해서는 윤리적 판단이 요구된다.
    • 트롤리 딜레마
    • 정의론에서 사례로 드는 트롤리 딜레마(Trolley Dilemma)는 여전히 가치판단의 영역이라는 점에서 인공지능에게 수행토록 하는 것이 타당한지에 대한 규범적 판단을 넘어서 사회적 합의가 필요하다.
    • 책임은 누가 지는가?
    • 물론 다양한 경우의 수를 시뮬레이션하여 윤리적인 판단에 대해 자동차의 제조자 또는 인공지능 개발자가 프로그래밍할 수 있을지 의문이다. 다만, 당장 인공지능이 도덕적이거나 윤리적인 판단을 하지는 아니할 것이다. 2016년 2월 발생한 구글 자율주행차의 사고처럼, 일상적인 접촉사고의 수준은 자율주행차라고 하더라도 양해될 수 있다. 그렇지만 궁극적으로 책임문제는 엄격하게 정리될 필요가 있다. 자율주행차에 의해 발생할 수 있는 책임문제는 운전자 과실과 제조자 과실을 들 수 있다. 제3자의 차량에 의한 사고도 예상되지만, 운전자 과실 내지 제조자 과실에 대한 책임 논의와 같이 동일하게 수렴될 것이기 때문이다.
    • 운전자 과실에서 보면, 기본적으로 운전자는 도로교통법상 주의의무를 지게 된다. 운전자는 자연인인지, 아니면 차량 자체인지 확인되지 않는다. 궁극적인 자율주행차의 모습은 인간이 운전에 관여하지 않는 것이 될 것이다. 면허발급의 주체가 지금까지 사람이었다면 이제는 차량이 발급 주체가 되고 있는 것을 통해 알 수 있다. 그렇지만, 발급주체라는 것은 책임의 주체와 같은 개념으로 볼 수 있기 때문에 자동차 사고로 인하여 발생하는 책임을 어떻게 처리할 것인지 논란이 예상된다. 한 가지 방법은 자동차배상법상 형사책임을 배제하고, 손해배상 책임으로 정하고 있는 것처럼 향후에도 유사하게 적용하는 것이다.
    • 또한, 운행 중 외부의 원인이 아닌 차량에 발생하는 사고는 어떻게 할 것인가? 제조자 과실에 대해서는 자동차의 하자에 따른 것을 원인으로 제조물책임을 통해 해결하는 방안을 들 수 있다. 자동차 제조자는 안전한 제품을 만들어야 하며, 경우에 따라서는 제조물책임법에 따른 무과실책임을 질 수 있다. SW와 관련된 제조물 책임에는 임베디드 SW인 경우는 가능하지만, SW자체는 제조물성이 부인된다는 것이 다수적 견해이다. 그렇지만 자율주행차와 같이, SW적으로 운행되는 경우라면 SW는 자동차에 체화된 것이기 때문에 당연하게 SW를 포함한 제조물성이 인정될 것이다. 따라서 SW에 대한 제조물책임에 대한 대응책이 마련될 필요가 있다. 자율주행차로 발생한 손해에 대해 자동차 제조자와 SW개발자 등이 연대책임을 지며, 쌍방은 이에 대한 책임소재를 다투게 될 것이다.
    • 벤츠 자율주행차
    • 결국, 사람이 개입될 여지가 있는 부분에 대해서는 사람의 판단에 따른 책임소재를 가릴 수밖에 없을 것 이다. 사람이 감독해야한다는 것이며 감독자가 책임을 져야한다는 의미이다. 이는 자율주행차에 탑승한 탑승자에게 책임을 묻는 것이다. 트롤리 딜레마처럼 자율주행차의 운행시 나타날 수 있는 사고는 인공지능이 판단할 수 있는 윤리적인 영역에서 가능할 수 있을지 의문이기 때문이다. 다만, 인공지능과 사람의 통제권을 달리하거나 개별적인 통제권을 행사하도록 규범화되지 않은 이상 사람의 통제권을 우선으로 할 수 밖에 없을 것이다. 인공지능의 판단에 따른 결과에서 그 책임은 소유자에게 물을 수밖에 없기 때문이다.
    • 자율주행차를 대하는 자세 – 법과 기술의 바람직한 관계
    • 법이 기술이나 사회현상을 따르지 못한다는 비판은 어느 정도 타당성을 갖는다. 2020년을 기점으로 상용화가 진행될 자율주행차는 그 동안 많은 법제도의 정비가 이루어질 것으로 보인다. 대표적으로 자율주행차의 전제는 자율주행차간 커뮤니케이션을 위한 정보의 공유와 교환이다. 어떤 형태로든 차량간 정보교환이 되지 않을 경우에는 자율주행이 불가능할 수 있기 때문이다. 현행 개인정보보호법이나 위치정보법은 이를 불법으로 볼 수 있기 때문이다. 하나의 예이지만, 이러한 법적 한계를 극복할 수 있어야할 것이다. 다만, 법이 선도적으로 기술을 시뮬레이션하여 대응하는 것은 법적 안정성이라는 측면에서 문제가 될 수 있다. 확정되지 않은 현상과 기술에 대해 법적 재단을 할 경우, 기술이나 현상에 대한 유연성이 떨어질 수 있기 때문이다. 이러한 접근법은 기술의 발전에 저해되며 자칫 규제로 작용할 수 있다는 한계를 지닌다.
    • 자율주행성의 단계
    • 따라서 기술현상에 대해서는 정책적 접근을 통해 유연하게 대응하는 것이 타당하다. 자율주행차의 경우도 다르지 않다. 그 동안 기술수준을 높이고, 개발자의 윤리의식을 높이는 것이 필요하다. 배기가스의 조작과 같은 사례는 소비자의 신뢰를 떨어트릴 수 있기 때문이다. 아울러, 자율주행차를 포함한 인공지능로봇에 대한 소비자에게 안심을 시키는 것이 필요하다. 유연한 정책은 바로 시장과 소비자의 법적 안정성을 담보해야 하기 때문이다. 물론 점진적인 법제도의 정비를 위해 가칭 「지능사회 대응을 위한 특례법」과 같은 특별법의 제정을 통해 국가적 대응체계를 마련하는 것도 고려할 필요가 있다.