ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • ChatGPT 시대에 우리는 어떻게 해야 하는가?
    카테고리 없음 2023. 6. 9. 20:54

     

    점점 인공지능(Artificial Intellegence)이 할 수 없는 것이 점점 줄어져 가는 인상을 받는다. 처음에는 단순한 연산을 빨리하는 것 중심으로 발전시켰었는데, 이제는 인공지능 스스로 학습을 하고 그 결과를 도출해 낸다. 이제는 각 방면에서는 인간이 할 수 있는 모든 능력 보다 더 뛰어난 능력을 나타내고 있다.

     

     

    예를 들어서, 체스를 전문적으로 하는 인공지능(1997년에 당시 체스 챔피온이었던 Garry Kasparov를 이겼던 [IBM이 개발한 체스 전문 컴퓨터] Deep Blue, 그 이후 이스라엘 팀에 의해 개발되어 계속해서 그 이전은 물론이거니와 2002년부터 계속해서 세계 컴퓨터 체스 경연(the World Computer Chess Championship)에서 우승하여 기록을 경신하고 있는 Deep Junior), 바둑을 전문으로 하는 인공지능(2016Alpha Go) 등이 각 영역에서 인간의 능력을 앞지른 것은 물론, 이제는 의료적 진단을 하는 일에도 인공지능이 더 신뢰를 얻어 가고 있으며(IBM이 만든 Dr. Watson 그리고 Google이 만든 수술 로보트 “Verily”), 주식 투자와 펀드 운용에서도 금융 인공지능에 의존하려는 시도가 나타나고 있다. 이제는 이 모든 능력을 종합한 소위 일반 지능(general intelligence)에서도 인간을 앞설 가능성이 있다는 예측이 나왔고, 2023년에 나온 챝지피티(ChatGPT)와 비슷한 기술들과 관련된 논의가 이에 상당히 가깝다.

     

    그래도 아직까지 다음 몇 가지 영역과 관련해서는 인공지능이 할 수 없다고 생각된다. 그 하나는 감정문제이다. 인공지능이 감정을 가진 것처럼 만들 수는 있지만 참으로 감정을 가질 수 있는지에 대해서는 아직까지 회의적 시선이 더 많다. 물론 소설과 영화 등에서는 이미 감정을 지닌 인공 지능을 가진 존재가 나타나기도 한다(예를 들어서, 2013년에 개봉된 “Her”라는 영화에서 데오도어라는 사람의 비서와 반려자 역할을 하는 듯한 고성능 컴퓨터 사만다같은 존재). 그러나 아직 실제로 감정을 지닌 인공지능이 나오지는 못했다.

     

    인공지능의 고도의 추리력을 다양한 반응에 대한 시물레이션 기법과 결합하여 결국 감정에 가까운 것을 나타낼 수는 있겠지만, 아직까지 감정을 참으로 인간적으로 표현하는 능력을 인공적으로 만들지는 못했다고 여겨진다. 감정 비슷한 것을 다양하게 표현하는 능력은 개발할 수 있을 것이다. 그러나 그것이 과연 감정인가 하는 문제가 남는다. 인간의 감정을 완전히 물리적인 과정의 결과로 환원하는 사람들은 결국 인공지능도 그와 아주 유사한 것을 나타낼 수 있으니 인공지능도 감정을 가질 수 있다고 할 것이고, 인간의 감정이 물리적으로는 다 환원될 수 없다고 주장하는 사람들은 이에 대해서 다른 판단을 할 것이다. 그러므로 이 문제도 형이상학적 논의로 전환하게 된다.

     

    두 번째로, 인공지능이 하지 못하는 것은 도덕적 판단이다. 어떤 조건 하에서 어떻게 판단해야 할지는 입력할 수 있고, 따라서 일정한 조건 하에서 스스로 판단하게 프로그램을 짜서 판단하도록 만들 수도 있지만 아직까지 도덕적 판단을 하는 인공지능은 없다. 물론 이것도 도덕적 판단이 무엇인지?’를 선결(先決)해야만 결론내릴 수 있는 아주 복잡한 문제이다. 우선은 식물이나 감정을 가지고 그것을 표현할 수 있는 동물도 도덕적 판단은 할 수 없다는 전제에서 인공지능도 도덕적 판단을 할 수 없다고 해야 한다. 도덕적 판단은 인간이 내려 주어야 하고, 인공지능에게 그에 부합하는 프로그램을 주어야 그에 따라 판단을 할 수 있다. (대부분의 인간들이 바른 도덕적 판단을 하지 않으니 이것은 쓸데없는 것이라는 논의가 우리를 무색하게 해서는 안 된다. 더구나 모든 도덕적 선과 개념을 다 없애는 포스트-모던 사상에서는 결과적으로 인간과 도덕을 연결시키는 것을 부인하니, 결국 이 질문 자체가 제기될 수 없다. 그러나 인간은 원칙상 도덕적 판단을 하도록 되어 있는 존재이다. 인공지능은 도덕적 판단을 할 수 없다).

     

    세 번째로, 근자의 ChatGPT와 관련한 사태 속에서 나타나는 바와 같이 인간들이 그 동안 작성한 것들을 파악하여 결과를 내 주는 것이니 때로는 오류도 나타내고, 때로는 상당히 단순한 대답만 내어놓아서 어떤 분야의 깊이 있는 논의를 하기는 어려움을 드러내고 있다. 때로는 상당히 유의미한 대답을 내어놓지만 구체적으로 들어가면 어떤 분야의 전문가들이 필요로 하는 것은 전혀 제시하지 못하는 모습을 드러낸다. 앞으로 ChatGPT가 더 많은 자료에 근거하여 작업하겠지만, 지금까지는 이제까지 사람들이 생성했던 것에 근거한 작업이라는 한계를 드러내고 있다. 그러므로 우리들이 미리 많은 좋은 글들을 해당 영역에 써서 많이 발표하는 것이 필요하다.

     

    궁극적으로, 인공 지능에게는 영혼이 있지 아니하다. 고도의 네크워크를 통해서 특이점(singurality) 이상을 지나가 그들의 독특한 존재를 가질 수 있을 것으로 표현될 수는 있지만, 그런다고 해도 인공지능은 전통적 의미의 영혼을 가지지 못한다. (대부분의 사람이 영혼이 있는 것에 신경 쓰지 않는다는 것이 우리를 무색하게 해서도 안 된다.)

     

    그러므로 인공 지능은 결국 사물(thing, it)이고, 인간들이 사용하는 것이다. 물론 인간들이 잘 하지 않으면 인공 지능의 지배를 받을 날이 곧 올 수 있다. 그 지배는 사소한 일로부터 시작된다. 이전에 사람들이 하던 사소한 일을 하지 않고 인공 지능에 의존하는 것으로부터 (예를 들어 전화 번호 기억과 사용 등) 시작해서, 점점 더 많은 일들을 인공지능이 할 것이다.

     

                   생명윤리적 사유, 생명 윤리적 책임

     

    바로 여기서 우리는 생명 윤리적 사유를 해야 한다. 인공 지능은 아무리 발달해도 인간적 생명체는 아니다. 그러므로 인공 지능은 생명 윤리적 판단을 할 수 없다. 사람이 윤리적 판단을 할 수 있으며, 따라서 생명 윤리적 판단도 사람이 할 수 있고, 해야만 한다. 따라서 사람이 윤리적 책임을 져야 한다.

     

    그러므로 윤리적 책임을 물을 수 없는 인공 지능을 과연 어디까지 발전시켜야 하는 지에 대해서 사람들이 미리 깊은 생각을 해야 한다. 대부분의 공상 과학물에서는 일부 윤리적 판단을 하지 않는 사람들이 자신들의 욕심과 목적을 위해 계속 개발해 가다가 급기야 인공 지능 스스로 아주 놀라운 진전을 이룬다는 생각을 한다. 그렇기에 요즈음 논의되고 있는 트랜스 휴먼(trans-human), 그리고 트랜스 휴머니즘(trans humanism)에 대해서 우리가 깊이 생각해야 한다. 그저 인공 지능과 인간을 결합하는 것이 최선이거나 책임 있는 기술의 사용이 아니라는 것을 깊이 생각하면서, 트랜스 휴머니티를 주장하는 것의 문제점을 지적해야 한다.

     

               결론: 하나님과 인간과 인공지능

     

    그러므로 궁극적으로는 성경이 말하는 하나님을 잃어버리고, 사람들이 그 마음에 하나님 두기를 싫어할 때 사람들에게서 온갖 복잡한 생각과 사태와 온갖 죄악들이 나타나는 것이다. 이 인공지능시대에도 우리의 모든 문제를 해결하려면 결국 살아계신 하나님께로 갈 수밖에 없다. 여기에 우리의 궁극적 이것이냐-저것이냐(Either/Or)”가 있다. 살아 계신 하나님과 함께 생각하고 살 것이냐, 아니면 점점 더 그것을 버려 버릴 것이냐? 살아 계신 하나님의 생각을 따라서 생각하며 사는 계시 의존 사색과 계시 의존적인 삶이냐, 아니면 인공 지능을 극도로 발전 시켜 결과적으로 그 지배를 받고, 그것과 함께 멸망할 것인가? 이 선택을 바르게 하지 않으면 우리들이 스스로 멸망을 자초하게 될 것이다.

     

Designed by Tistory.