ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 이세돌과 알파고의 대국을 보면서
    우리사회와 기독교 2016. 3. 15. 12:33


    ▲ 합동신학대학원대학교 이승구 교수

    온 세상이 이 대국에 대해서 관심을 가지고 말하고 있다. 바둑에 문외한들도 이 대국에 대해 신경을 쓴다. 초반에 이세돌이 3번 연속 패한 것 때문에 더 많은 말들이 나온다. 그러면서 인공지능(AI: artificial intelligence)에 대한 관심이 크게 성장했다.

    1952년경부터 연구가 시작되어 필자가 유학하던 1980년 중반에 컴퓨터 공학자들과 심리학자들이 열심히 연구하던 것, 또한 심리학자들과 공학자들이 신경망(deep neural network) 연구를 열심히 하던 것이 30년 후에 이와 같이 전문적 학자들만이 아니라 일반인들의 관심이 된 것이다. 인공지능을 부각시키려고 했던 구글의 의도는 성공했다고 할 수 있다. 전세계인들의 이목을 집중시키고 저마다 한 마디씩 하게 했기 때문이다.

    앞으로 인공지능은 더 발전할 것이다. 인공 지능을 연구하는 분들은 처음부터 인간의 뇌가 작동하는 방식을 모방하여 인간이 지성적 활동을 하는 방식을 인공적으로 만드는 것이 목표였는데, 연산 능력과 정확도에 있어서는 컴퓨터가 우세하다는 것이 이미 오래 전에 드러났다.

    이번 프로그램은 (1) 그저 모든 연산을 하는 것이 아니라 바둑에서 이길 수 있는 확률이 높은 것만을 연산하고 그로부터 일종의 판단을 하게 하는 정교한 알고리즘을 적용하며 또한 (2) 기존의 대국 상황 몇 십만건을 입력하여 그에 근거한 자기 대국을 여러 번 치루게 한 소위 “머신 러닝”(machine learning, 프로그램이 스스로 학습하는 것까지)의 결과를 가지고 한 대국이라는 점이 특이하다.

    지금은 인간이 1,000년 걸려 학습할 수 있는 것을 알파고는 4주 만에 스스로 할 수 있다고 한다. 그런데도 4국에서 패한 것을 통해서 알파고의 한계를 알게 됐다는 알파고의 개발자인 데미스 하사비스의 말은 앞으로 이런 점을 극복하면서 점점 더 정교한 인공지능을 만들어 가려고 노력할 것이라는 것을 분명히 해 준다. 그래서 더 정교한 알고리즘이 사용되면 가장 복잡한 게임이라고 여겨지는 바둑에서도 인간이 인공지능에게 항상 패하는 결과를 낼 날이 있을 것이다.

    ▲ 이세돌 9단이 ‘구글 딥마인드 챌린지 매치’ 제4국에서 첫수를 착점하는 장면. 사진= 한국기원

    이런 상황에서 우리는 무엇을 어떻게 생각해야 하는가? 첫째로 인공지능에 대한 연구가 점점 더 활발해 지고 그것을 실생활에 적용하는 시도가 점점 많아 질 것을 받아들여야 한다. 인공지능은 “대량의 데이터를 분석하여 결정을 내리는 데에” 도움을 줄 수는 있다. 이 때 가장 중요한 것은 과학 기술과 관련하여 그리스도인들이 늘 강조해 온 “책임 있는 기술”이라는 개념을 분명히 해야 한다.

    과학과 기술이 발전할 때 관련자들은 그 과학과 기술을 참으로 책임 있게 발전시키고 사용하려고 해야 한다는 것이다. 그것은 인공지능이 도무지 할 수 없고, 그런 인공 지능을 발전시켜 가는 인간만이 할 수 있는 것이다. 여기서 인공지능이 더 발전하여 자신을 개발한 인간을 배제 시키려고 하면 어떻게 하느냐는 질문이 나오는 것이다. 그것을 충분히 예측할 수 있으므로 우리는 과학과 기술을 발전시키되, “책임 있게” 발전시켜야 한다. 이것은 인간만이 할 수 있는 것이다. 책임 있게 연구하지 않는 것은 결국 인간됨을 스스로 포기하려고 하는 것이 된다. 그리고 인공지능은 발전시키고 발전(發展)하는 것이지 절대로 진화(進化)하는 것이 아님을 분명히 해야 한다. 그러므로 이 발전을 인간들이 “책임 있게” 감당해야 한다.

    둘째로, 그 이유는 인공지능은 절대로 도덕적 판단은 할 수 없기 때문이다. 물론 인공 지능이 사람들이 프로그램화한 도덕적 판단에 따를 수는 있다. 그러나 인공지능 스스로 도덕적 판단을 할 수는 없다. 그러므로 후에 인공 지능을 더 개발할 때 참으로 바른 도덕적 프로그램을 입력하지 않고, 현대에 인간 사회에서 유행하는 상대적 도덕적 개념을 넣으면 그 어떤 재난이 초래 될지 명약관화하다. 인공지능은 참된 의미의 도덕적 판단을 할 수 없고, 또 책임을 지지 않는다. 그것은 도덕적 행위의 주체가 아니기 때문이다. 모든 책임은 그것을 개발하고 프로그램을 만든 사람(들)이 져야 한다. 책임 있는 기술을 강조하는 이유가 바로 여기에 있다.

    셋째로 인공 지능은 절대로 인간의 감정을 가질 수 없다. 후에는 인간의 감정과 비슷한 것을 흉내 내는 것까지를 할 수 있을 것이다. 그래서 인공지능을 장착한 상담 시스템도 나올 것이다. 그러나 그것은 진정한 의미의 감정이 아니고, 참된 의미의 상담도 아니다. 그것은 결국 인공지능에게는 영혼이 없기 때문이다.

    그러므로 사람들은 자신들이 그저 몸만의 존재가 아니라 영혼을 가진 존재임을 생각하면서 그 영혼의 생사 여부와 건강과 복지에 신경을 쓰며, 진정한 인간의 감정을 제대로 느끼며 표현하고, 인간의 특성의 하나인 참으로 바른 도덕적 판단을 하고 그에 따라 행동 하려하며, 과학 기술도 책임 있게 발전시키며 어디서 그쳐야 할지도 제대로 판단해야 한다. 그리하지 않을 때 우리는 인간다움을 상실해 가고, 나중에는 인공지능보다도 못하다는 욕을 먹게 될 것이다. 그리하지 않으려면 참으로 인간다운 영혼의 복지와 그로부터 나오는 모든 일에 힘을 써야 할 것이다.


Designed by Tistory.