바로가기 메뉴
본문 바로가기
주메뉴 바로가기
연구자료
인공지능을 얼마나 아십니까?
  • 조원영SW기반정책·인재연구실 실장
날짜2018.07.31
조회수14661
    • 요즘은 어떤지 잘 모르지만, 필자가 대학을 다니던 1990년대 중후반, 평일 대낮에 신촌이나 종로 한복판을 지날 때면 낯선 이들이 어디선가 나타나 반색을 하며 붙잡아 세우는 일이 종종 있었다. 이들은“도를 아십니까?”라는 아리송한 화두를 던지곤 했는데, 생면부지의 사람과 길바닥에서 뜬금없는 이야기로 시간을 쓰고 싶은 마음도 없었거니와 도에 대해서는‘레’나 ‘미’보다 조금 낮은 음계라는 것 외에는 아는 바가 전혀 없었기 때문에 바쁜 척 황급히 자리를 피하는 것이 내 유일한 대처법이었다. 이십여 년이 지난 지금, 그때 시내 한복판에서 마주친 무명씨의 암구호(暗口號) 같은 질문을 생뚱맞게 떠올린 이유는 갑자기‘안다(知, Know)’는 것이 무엇인지 궁금했기 때문이다. 사전을 찾아보니 대략 두 가지 의미가 있다. 첫째, 지식을 갖추어 이치를 이해하다. 둘째, 확신을 갖고 신뢰하다.
  • 인공지능이라는 이름의 숨은 그림
    • 최근에 사람들이 가장 알고 싶은 것은 뭘까? 부동산이나 주식시세와 같은 투자기술(財테크)이 으뜸이겠으나, 우리의 삶과 인류의 미래를 진지하게 고민하는 사람이라면 ‘인공지능’이란 기술에도 관심이 많을 것이다.‘구글 트렌드’를 찾아보니, 역시나 지난 5년간 인공지능(ArtificialIntelligence)을 키워드로 검색한 횟수가 네 배 이상 늘었다. 그렇다면 우리는 인공지능에 대해서 충분히 알고 있을까? 이에 답하기 위해 우선 2018년 7월 어려운 시기를 꿋꿋이 살아가고 있는 우리 구보씨의 평범한 일상을 들여다보자.
    • 직장인 3년차 구보씨의 최대 관심사는‘이직’이다. 졸업 직전 이력서를 뿌렸던 회사 중 한군데서 운 좋게 합격 통지를 받아 사회생활을 시작했지만, 원했던 분야가 아닌지라 한 살이라도 어릴 때 적성을 찾아 직장을 옮겨야 한다는 부담이 있다. 물론 입사지원은 꾸준히 하고 있다. 문제는 인성적성검사인데, 오늘 오전의 불합격 통보를 포함하면 벌써 네 번이나 이 단계에서 고배를 마셨다. 답답한 마음에 인사 담당자에게 탈락 이유를 문의했지만 업무상 기밀이라는 답변이 돌아왔을 뿐이다. 마음을 추스린 구보씨는 점심 시간에 짬을 내어 대출을 받으러 은행에 갔다. 돌아오는 전세 만기일에 맞춰 늘어난 보증금을 마련하기 위해서다. 며칠 전 처지가 비슷한 회사 동기가 신용등급이 낮아 대출 거부를 받았다는 소식이 맘에 걸렸지만, 다행히 구보씨는 대출 심사를 통과하여 한시름 놓게 되었다. 오후 일과를 무사히 마친 구보씨는 가벼운 발걸음으로 집을 향한다. 최근에 생긴 소소한 즐거움은 퇴근 후 온라인 주문형 동영상 서비스를 통해 미국 드라마를 보는 것이다. 때마침 시청했던 드라마가 종영했는데, 크게 아쉬울 것은 없다. 드라마를 추천해주는 기능이 있는데 꽤 쓸 만하기 때문이다. 오늘도 추천받은 드라마를 시청하던 구보씨는 불현듯 오전의 불합격 통보를 떠올리며 시청을 중단한다. 인터넷으로 새로운 채용 정보를 찾기 위해서다. 이직을 결심한 이후부터 구보씨가 어느 사이트에 들어가든 직업훈련학원의 광고가 따라다니는 것이 신기하다. 구인사이트에서 평소 눈여겨봤던 회사의 경력사원 모집 공고를 발견한다. 이력서와 자기소개서를 보완하려니 접수기간이 꽤나 촉박해서 자기소개서 첨삭 서비스를 받기로 했다. 평소에 이용하던 사이트를 방문한 구보씨는 깜짝 놀랐다. 마치 자기의 사정을 훤히 아는 것처럼 하루만에 첨삭을 도와주는 급행(Express) 서비스와 지원 회사의 재직자가 조언을 제공하는 서비스를 선택할 수 있게 되었기 때문이다. 미래를 위한 투자라고 생각한 구보씨는 서비스를 모두 선택하고 일반 요금의 다섯 배에 달하는 비용을 결제한다.
    • 여러분은 인공지능이라는 숨은 그림을 얼마나 찾았는가? 작은 단서도 찾지 못한 독자라면 인공지능은 아마도 목적지까지 스스로 이동하는 완전자율주행차나 영화 속 터미네이터처럼 먼 미래의 이야기일 것이다. 하지만 구보씨의 일상을 자세히 들여다보면, 우리는 이미 인공지능이 정해놓은 규칙을 지키고 인공지능 심사관을 통과해야 하는 세계에 살고 있음을 알 수 있다.
    • 우선 인성적성검사를 비롯한 직원 채용 프로그램을 인공지능으로 자동화하는 기업이 늘고 있다. 학연, 지연, 혈연 등의 인맥이 총동원되는 혼탁한 채용과정을 공정하게 만들고 숨은 인재를 족집게처럼 찾기 위해서다. IBM은 인공지능 왓슨(Watson)을 기반으로 한‘파인드 유어 핏(Find Your Fit)’이라는 채용 지원 시스템을 개발하여 미국 본사와 전세계 지사에서 인재가 필요한 빈자리와 입사 지원자의 특성을 비교한 뒤 지원자에게 적합한 자리를 찾아준다. 1 유니레버는 채용공고에서부터 지원서 작성, 지원자 선별, 직무 능력 평가, 그리고 최종 면접까지 인공지능 기술을 도입하여 지원자의 범위를 확대하고 채용과정을 단축했으며 더 우수한 직원을 확보할 수 있게 되었다. 2
    • 신용평가도 마찬가지다. 과거의 신용평가 모형은 자산과 부채, 급여수준, 공공요금 납부 기록, 부채 상환 기록과 같은 대출자의 재정상태만을 고려하여 산출되었다. 3 반면에 최근에 개발되고 있는 인공지능·빅데이터 기반의 신용평가모형은 SNS, 온라인 쇼핑, 이메일 등의 인터넷 이용 기록, 대출신청서의 비문이나 틀린 철자, 인성검사결과 등의 비금융 데이터까지 활용한다. 실제로 트러스팅소셜(TrustingSocial), 제스트파이낸스(Zest Finance) 등의 핀테크기업이 관련 사업을 수행 중이다.
    • 온라인 동영상 서비스의 자동추천 기능은 대표적인 인공지능 서비스다. 유튜브의 경우 사용자가 특정 주제의 동영상을 재생하면 오른쪽에 관련도가 높은 동영상 목록이 자동으로 생성되고 사용자가 중지 버튼을 누르기 전까지 순차적으로 재생된다. 사용자들이 오래 유튜브에 머무르게 만들기 위함이다. 넷플릭스는 시청기록을 바탕으로 취향이 일치하는 동영상을 추천해주는데, 실제로 재생되는 동영상의 60%가 인공지능이 추천해준 결과와 일치할 4 정도로 가입자들의 신뢰를 받고 있다.
    • 인터넷 광고는 어떠한가? 인터넷 사용자의 검색 및 사이트 방문기록 등을 활용해 거주지, 소득, 교육수준, 소비성향, 가족관계, 말 못할 고민까지 낱낱이 파악한 후 맞춤형 광고를 끈질기게 제공한다. 이러한 광고가 소비자의 지갑을 얼마나 효과적으로 열게 만드는지는 ‘약탈적 광고’라는 명칭에서도 쉽게 짐작할 수 있다. 심지어 인공지능은 경쟁 제품의 가격, 제품의 수급 상황, 구매 욕구의 강도 등 시장상황을 파악해 가격까지 결정한다. 실제로 아마존닷컴은 자사의 웹사이트에 입점한 판매자에게 자동으로 가격을 책정하는 기능을 제공하는데, 판매자의 이익에 도움이 된다는 소문이 나면서 많은 판매자가 인공지능이 가격을 결정하도록 맡기고 있다. 5
  • 알고리즘 투명성
    • 다시 모두(冒頭)의 질문으로 돌아가자. 우리는 인공지능에 대해서‘얼마나’ 알고 있을까? 우선,‘알다’의 첫 번째 사전적 정의, 즉‘인공지능의 작동 원리를 얼마나 이해하고 있는가?’부터 살펴보자. 6 결론부터 말하자면, 안타깝게도 우리는 인공지능의 작동 원리를 이해하는데 한계가 많다. 이해하기 어렵다보니 인공지능이 왜 그런 결과를 내놨는지 설명하는 것 역시 쉽지 않다. 아마도 인사담당자는 인성적성검사에서 구보씨가 탈락한 이유를 모를 가능성이 높고, 대출담당자는 구보씨의 회사 동료에게 신용등급을 올리기 위해서 근속년수를 늘리고, 공과금을 제때 내며, 신용카드 개수를 줄이라는 식의 공자님 말씀만 해줄 것이다.
    • 인공지능의 작동원리를 알기 어려운 이유는 블랙박스 모형이기 때문이다. 대량의 데이터를 활용하여 인공지능을 학습시키는 과정에서 스스로 논리체계가 형성되어 판단의 정확도가 높아지는 이치인데, 마치 뇌의 단면을 보고 인간의 생각을 읽을 수 없듯이, 알고리즘이 어떻게 판단했는지는 알기 어렵다. 심지어 알고리즘은 지적 저작물에 해당되기 때문에 뜯어보는 것조차 여의치 않다.
    • 알고리즘이 투명하지 않으면 인공지능이 실수를 저지르더라도 원인을 제대로 파악하지 못한다. 원인을 모르니 해법도 없고, 언제나 똑같은 실수에 노출된다. 2011년 4월 아마존 닷컴에서 판매 중인 진화생물학 도서의 가격이 갑자기 65만 배 뛰었다. 당초 35달러에 팔리던 피터 로렌스(Peter Lawrence)가 지은 「파리의 탄생(The Making of a Fly)」의 재고가 두 권만 남게 되자 가격이 갑자기 2천 360만 달러까지 오른 것이다. 아마도 좀 더 높은 가격에 책을 판매하려던 인공지능 가격책정 모형 간에 발생한 경쟁의 파국적 결과라는 추측이 지배적이지만 정확한 원인은 알려진 바 없다. 7
    • 아마존닷컴의 사례는 호사가들의 입방아에 잠깐 오르내릴 정도의 작은 실수로 끝났지만, 인공지능이 심각한 문제를 야기하는 경우도 있다. 2010년 5월 6일 S&P 500, 나스닥 100, 다우존스 등 미국의 주요 증시가 30분 만에 갑작스럽게 붕괴(Flash Crash)했다. 8천여 개의 주식가격이 5%에서 15% 하락했고, 300여 개의 주식가격은 무려 60%까지 빠졌다. 거래중단시스템(Circuit Breaker)을 작동시킨 후에야 겨우 진정된 이 사태의 가장 큰 문제는 붕괴의 원인을 알 수 없었다는 점이다. 증권거래위원회(SEC)가 수년간의 조사 끝에 밝혀낸 대략적인 가설은 조그만 펀드회사의 인공지능 주식거래 시스템에서 오류가 발생하여 잘못된 매도 주문이 발생했고, 이 신호를 감지한 다른 회사의 인공지능 주식거래 시스템이 경쟁적으로 연쇄적인 매도 주문을 발생시키면서 전체 시장을 출렁이게 만들었다는 것이다. 8 초단타매매라고 불리는 인공지능 기반의 자동화된 주식 매매 시스템을 통한 주식 거래는 점차 증가하여 전체 거래량의 70%에 육박하고 있는데, 이런 사고가 또다시 발생하지 말란 법이 없다. 역설적인 점은 이 시스템이 1987년 블랙 먼데이라고 불리는 주식시장의 폭락에 대한 대응책으로 만들어졌다는 점이다. 완벽하지 않은 인간을 컴퓨터로 대체함으로써 시장의 붕괴를 막겠다는 복안이었는데, 또 다른 형태의 시장 붕괴를 불러왔다.
    • 좋은 시스템은 반드시 되먹임 장치(Feedback Mechanism)를 갖고 있다. 이는 정상 항로를 벗어날 경우 경고를 하고, 오류를 토대로 시스템을 지속적으로 개선하여 더욱 완벽하게 만든다. 앞선 아마존닷컴과 미국 증시 사례는 알고리즘의 불투명성이 되먹임 장치를 무력화 시킨다는 것을 자명하게 보여준다. 뿐만 아니라 되먹임 장치는 시스템을 사용하는 인간에게도 발전할 수 있도록 동기를 부여하고 방향을 제시한다. 이때에도 불투명한 알고리즘은 인간의 세상에 대한 이해를 방해하여 발전을 막는다. 내가 왜 인공지능 심사관을 통과하지 못했는지, 어떻게 하면 통과할 수 있는지 알 수 없다면, 인간은 삶의 통제력을 잃게 되고 의지가 사라지며 한없이 무기력해 질 것이다. 왜 30등을 했는지, 등수를 높이려면 어떻게 해야 하는지 아무도 설명해주지 않는 학교에서 학생이 할 수 있는 일이 뭐가 있겠는가?
  • 알고리즘 공정성
    • 이제‘알다’의 두 번째 사전적 정의, 즉‘인공지능이 우리에게 이로울 것이라고 확신을 갖고 신뢰하는가?’라는 문제를 생각해보자. 이는 인간이 갖고 있는 보편적 신념이나 사회적 가치를 추구하는데 인공지능이 도움이 된다고 믿는지에 관한 철학적 질문이다. 민주주의의 뿌리가 견고한 시민사회일수록‘공정성’이나‘다양성’을 보편적 가치로써 높이 평가한다. 공정성의 경우, 인공지능은 최소한 인간보다는 뛰어난 것처럼 보인다. 인간이 서류 뭉치를 조사하여 평가한 결과보다는 사심 없는 기계가 객관적인 수치를 과학적 기법으로 처리한 결과가 더욱 믿을만하고 공정할 것 같다. 앞서 본 인공지능 채용시스템이나 주식거래시스템이 인간의 편견과 비합리성에서 비롯된 문제를 제거할 것이라는 기대에서 만들어졌듯이 말이다.
    • 재범위험성 예측모형(Recidivism Risk Assessment Model) 역시 비슷한 취지로 만들어졌다. 판사의 편견이나 점심을 거른 배심원단의 예민한 기분에 좌우되지 않고 공정한 판결이 이뤄지도록 인공지능이 피고나 재소자의 재범확률을 예측하고, 판사는 이를 토대로 형량이나 보석금을 결정하는 것이다. 9 무슨 행동을 했는지가 아니라 그는 누구인가로 법의 심판을 받는 것이 옳은지는 논외로 하더라도, 한 언론사가 인종 차별 가능성을 제기하여 논란이 된 바 있다. 이들의 주장은 대표적인 재범위험성 예측모형인‘COMPAS’의 예측 결과를 검증해보니 실제로 재범을 저지르지 않았지만 재범을 저지를 것으로 잘못 예측한 경우는 흑인이 백인보다 두 배나 높은 반면, 재범을 저지르지 않을 것으로 예측했지만 실제로 재범을 저지른 경우를 보면 백인이 흑인보다 훨씬 많다는 것이다. 10 대부분의 재범위험성 예측모형은 피고가 처음으로 경찰에 붙잡힌 연령, 친구나 친척 중에 전과자가 있는지 등과 같은 출생 환경과 성장 배경에 대한 데이터를 활용한다. 빈곤층에 속하는 유색인의 비율이나 이들에 대한 경찰의 집중 단속 등을 고려했을 때 흑인에게 불리할 수밖에 없는 데이터를 이용하여 예측을 하고 이를 토대로 불공정한 판결이 나오는 구조다.
    • 모든 알고리즘 뒤에는 완전히 제거할 수 없는 인간의 신념과 편견, 오해가 존재한다.「대량살상수학무기(원제 : Weapons of Math Destruction)」의 저자, 캐시 오닐(Cathy O’Neil)의 주장처럼,“알고리즘이 공장에서 제조되는 제품이라면 불공정성은 그 공장의 굴뚝에서 뿜어져 나오는 매연”과 같이 어쩔 수 없는 부산물이다. 모든 알고리즘은 추구하는 목적이 있고, 이미 그 목적함수 안에는 주관이 개입하기 때문이다. 사람이 하던 일을 인공지능이 대체한 것이라면 십중팔구 사람의 손때 묻은 기존 모형을 참고하는 과정에서 편견까지 이식된다. 다만, 공장의 매연을 제거할 수 없다고 해서 아무런 조치도 취하지 않으면 기후 온난화의 재앙을 맞이하듯이, 알고리즘의 편향성을 개발자의 손에 맡겨둔 채 아무런 조치도 취하지 않는다면, 공정성이라는 사회적 가치는 악화일로를 치닫게 될 것이다. 재범위험성 예측모형이 흑인을 차별한다면 더 많은 흑인이 더 오랫동안 수감생활을 할 것이고 사회복귀가 어려워지면서 다시 범죄를 저지르는 악순환을 통해 예측이 현실이 된다. 무서운 상상이지만, 민주주의와 시장질서의 가치를 공공연히 부정하는‘실리콘밸리의 큰 손’피터 틸(Peter Thiel) 11과 같은 인물이 자신의 사상을 고스란히 담은 인공지능을 개발하여 세상에 영향을 미친다면 시간은‘1984년’에서 멈출 것이다.
  • 알고리즘 다양성
    • 마지막 질문이다. 인공지능은 공정성과 함께 보편적인 사회적 가치로 인정받고 있는 다양성을 개선할 것으로 믿는가? 사실 인터넷과 같은 디지털 기술이 다양성을 높인다는 괜찮은 주장이 있는데, 바로‘긴꼬리(Long Tail) 법칙’이다. 이 법칙을 주장한 크리스 앤더슨(Chris Anderson)에 따르면 전통경제는 창고나 진열대와 같은 물리적 공간의 제약이 크고 소비자 역시 다양한 제품을 탐색하는 것이 여의치 않기 때문에 기업은 소수(20%)의 제품에 집중하여 대부분(80%)의 매출을 창출할 수밖에 없었다. 당연히 소비 성향도 획일화되고, 쏠림 현상도 심하게 발생했다. 반면에 디지털 경제에서는 물리적 비용과 탐색비용이 급격히 하락하기 때문에 아마존닷컴이나 애플의 앱스토어와 같이 엄청나게 다양한 제품과 서비스를 통해 소비자들의 다양한 취향을 충족시키는 기업이 주도권을 쥐게 된다. 이제 80%의‘사소한 다수’가 20%의‘핵심 소수’보다 더 많은 가치를 창출하고 존중받는 시대가 온 것이다. 맞는 이야기 같다. 1인 미디어 등 콘텐츠의 다양성이 폭발적으로 늘어나고, 재능과 의지만 있으면 어느 분야든지 쉽게 뛰어들 수 있으니 말이다.
    • 하지만 현실은 기대와 사뭇 다르다. 특히, 디지털화가 가장 빠르게 진전된 미디어 산업을 보면 극소수의 콘텐츠가 시장의 대부분을 차지하는,‘블록버스터(Blockbuster) 효과’가 심화되고 있다. 미국 박스오피스 상위 10%에 속하는 영화가 전체 매출에서 차지하는 비중은 1997년 약 50%에서 2016년 85%를 넘어섰다. 특히 상위 5개 영화는 모두 디즈니에서 제작했는데, CEO인 밥 아이거(Bob Iger)에 따르면 성공의 비결은 제작 편수를 줄이고, 편당 제작 예산을 늘리는 데 있다고 한다. 12 음악산업도 상황이 다르지 않다. 대부분 국가에서 상위 1%의 음악이 전체 산업에서 창출되는 수익의 80% 정도를 가져간다. 2016년 발매된 디지털 음악 중에서 판매량이 1장에 불과한 앨범이 40%나 되는 반면, 100장 넘게 팔린 앨범은 5%에도 미치지 못한다. 스포티파이에서 10만 명이 음악을 들으면 저작권자에게 고작 480달러가 돌아가며, 1인 미디어로 큰돈을 번 사람들 이야기는 많지만, 사실 유튜브에 올라온 동영상의 평균 재생횟수는 150회가 안 된다. 13
    • 디지털 기술의 확산이 오히려 문화적 다양성을 저해하는 이유는 기술 자체에 있는 것이 아니다. 공정성 이슈와 마찬가지로 기술을 보유한 기업이나 개인이 이러한 결과가 나오도록 기술을 설계하고 규칙을 정하기 때문이다. 사실 디지털 제품의 품질에 대해서 소비자는 잘 모른다. 넷플릭스가 추천하는 영화나 구글의 검색 결과가 대체적으로 만족스럽지만, 정말 나에게 최적화 되었는지 알 수 없다. 이렇듯 제품의 품질에 있어서 판매자와 구매자간에 정보의 비대칭 14이 존재할 경우, 소비자는 판매자를 믿고 추천해준 영화를 보거나, 검색결과를 화면의 맨 위부터 차례대로 확인하는 수밖에 없다. 구글의 제품 매니저를 역임했던 트리스탄 해리스(Tristan Harris)의“메뉴를 설계하는 자가 선택을 통제한다” 15는 주장은 핵심을 찌른다.
    • 앞으로 다양성의 가치는 더욱 훼손될 가능성이 있다. 원인은 바로 개인화된 맞춤형 서비스다. 맞춤형 서비스의 핵심은 문화적 성향이나 정치적 신념에 부합하는 정보는 제공하고 그렇지 않으면 걸러내는 것이다. 디지털 기술을 이용하여 개인의 성향을 더욱 정확히 파악하고 정보를 철저히 거를수록 우리는‘거품에 갇혀 검열된 정보만 소비(Filter Bubble)’하거나‘내가 떠드는 소리만 메아리치는 좁은 방에 살면서(Echo Chamber)’점차 고립된다. 이미 성별과 세대를 달리하는 사람들의 갈등은 심화되고 다름을 인정하는 관용은 사라지고 있다. 모든 사람들이 자신의 신념을 강화하는 환경에서 살고 있다면 중요한 쟁점에 대해 국민적 합의를 이끌어 낸다는 것도 불가능하다. 16
  • 남은 과제
    • 지금까지 우리는 인공지능에 대해서 얼마나 잘 알고 있는지에 대해서 이야기했다. 안다는 것은 첫째, 원리를 이해하여 결과를 설명할 수 있고, 둘째, 우리에게 이로울 것이라 확신을 갖고 믿는다는 의미인데, 이런 관점에서 우리는 아직 인공지능을 잘 알지 못한다. 우선 알고리즘이 투명하지 않기 때문에 원리가 무엇인지, 왜 그런 결과가 나왔는지 설명하는데 한계가 있다. 또한 인공지능이 공정성이나 다양성과 같은 사회적 가치를 지킨다고 확신할 수 없다. 이는 기술 자체의 문제가 아니라 그 이면에서 기술을 적용하고 규칙을 정하는 사람들의 이해관계와 통제에서 비롯된다는 것을 확인했다.
    • 인공지능을 모르면 대가를 치른다. 인공지능 시스템에 문제가 생기거나 사회적 가치가 훼손되는 상황을 속수무책으로 지켜볼 수밖에 없다. 인공지능이 우리 삶에 미치는 영향이 커지는 상황이라면 무지(無知)의 비용도 함께 올라간다. 기술사회학자 제이넵 투펙치(Zeynep Tufekci)가 말했듯이,“엄청난 잠재능력은 엄청난 위험을 수반한다.” 17 그렇다면 우리는 무슨 노력을 해야 할까? 우선, 블랙박스 안에 숨어 있는 알고리즘을 꺼내어 살펴볼 수 있는 제도가 필요하다. 실제로 알고리즘 감사(Algorithm Auditing)의 필요성을 주장하는 전문가들이 늘고 있다. 18 알고리즘이 얼마나 공정해야 하는지, 다양성을 얼마나 보호해야 하는지에 대한 사회적 논의도 필요하다. 물론 공정성이나 다양성에 대한 정의나 필요한 수준, 측정 방법 등에 대해 다양한 의견이 있을 수 있고 이를 수렴하는 것도 쉽지 않을 것이다. 하지만 어렵다고 피하거나 애써 모른 척 한다면 결국 소수의 테크기업들이 정해놓은 규칙에 따르는 수밖에 없다.
    • 마무리를 하려니, 필자를 혹시 네오 러다이트(Neo-Luddite) 부류로 오해할까봐 걱정된다. 혁신의 부작용에 대비하자는 주장을 신기술을 죽이려는 음모로 치환하는 것은 잘못한 아이 바로잡는데 내 새끼 왜 기죽이냐며 난리치는 것과 큰 차이가 없다. 국가 경제는 자전거와 같아서 페달을 밟아서 나아가지 않으면 넘어진다. 여기서 기술 혁신은 페달이고 나아가는 것은 성장이다. 자전거 이야기를 좀 더 하자면, 기술과 산업을 육성하는 것이 앞바퀴라면 혁신의 부작용에 대비하는 것은 뒷바퀴 정도 된다. 바퀴가 하나면 넘어지기는 쉽고 속도를 내거나 방향을 바꾸는 것은 어렵다. 버락 오바마 미국 전 대통령은 2016년 5월 히로시마 평화 기념공원에서“기술의 진보가 그에 상응하는 제도적 발전과 병행되지 않는다면 우리는 파멸할 것이다” 19라고 했다. 그를 좋아하든 그렇지 않든 새겨들어야 한다.
    • 1 동아일보(2017.7.4.),「인공지능 면접관, 숨은 인재 찾기 족집게네」
    • 2 중앙일보(2017.6.28.),「사심 없는 AI 면접관, 인재 제대로 뽑네요」
    • 3 재정상태만을 고려한 전통적인 신용평가모형을 흔히 FICO모형이라고 하는데, 이는 대표적인 신용평가모형을 개발한 빌 페어와 얼 아이작의 회사, Fair Issac Corporation의 앞 글자를 딴 작명이다.
    • 4 Kevin Slavin(2011.7.),「How Algorithms Shape Our World」, TED.
    • 5 M. Stucke and A. Ezrachi, (2016.10.27.),「How Pricing Bots Could Form Cartels and Make Things More Expensive」, Harvard Business Review.
    • 6 캡슐신경망(Capsule Neural Network)이나 대립적 생성 네트워크(Generative Adversarial Network)와 같은 인공지능 기술을 알고 있는지에 대한 질문이 아니다. 사실 필자도 잘 모른다.
    • 7 Wired(2011.4.27.),「How a Book about Flies Came to be Priced $24 Million on Amazon」
    • 8 2010년 미국 증시 대폭락 사건에 관심 있는 자는「머니볼」,「빅숏」을 저술한 마이클 루이스(Michael Lewis)의「플래시 보이스(Flash Boys)」를 참고하길 권한다.
    • 9 미국의 24개 주에서 판사가 양형 시 재범위험성 예측모형을 참고하고 있다.
    • 10 Matthias Spielkamp(2017.6.12.),「Inspecting Algorithms for Bias」, MIT Technology Review.
    • 11 1998년 페이팔(PayPal)을 창업했으며, 2003년 창업한 빅데이터 업체 팰런티어 테크놀로지(Palantir Technologies)는 오사마 빈 라덴의 은신처를 찾는데 기여한 것으로 알려져 있다. 국내에는 베스트셀러 「제로 투 원」의 저자로 유명하다. 논란이 되는 발언도 서슴지 않는데, 대표적으로“과학자, 기업가, 벤처 캐피탈리스트 등을 제외한 국민의 98%는 아무 것도 모른다.”,“민주주의와 자유주의는 양립할 수 없다.”, “영원히 유지되는 가치를 위해 독점화 하라.”등이다.
    • 12 The Economist(2017.2.11.),「Winner Takes All : Mass Entertainment in the Digital Age is Still About Blockbusters, not Endless Choice」
    • 13 Jonathan Taplin(2017),「Move Fast and Break Things : How Facebook, Google, and Amazon Cornered Culture and Undermined Democracy」, Little, Brown and Company.
    • 14 소비자가 사용 전부터 품질을 아는 제품을 탐색재(Search Good), 사용한 후에 아는 제품을 경험재 (Experience Good), 그리고 사용 후에도 정확히 알지 못하는 제품을 신뢰재(Credence Good)라고 한다.
    • 15 Jonathan Taplin(2017), 상동.
    • 16 니코 멜레(2013),「거대 권력의 종말(원제 : The End of Big)」, RHK
    • 17 Zeynep Tufekci(2017.9.),「We’re Building an Dystopia just to Make People Click on Ads」, TED.
    • 18 Wired(2018.5.9.),「Want to Prove Your Business Is Fair? Audit Your Algorithm」
    • 19 New York Times, (2016.6.15.),「Lessons of Hiroshima and Orlando」