청호웹진 5월호

알레테이아, 진리를 탐구하는 철학 이야기 3

진리의 새로운 패러다임으로서의 초거대 AI

- 김영철 / 동국대학교 교수 -

만물의 척도로서의 AI(인공지능)

page

만물의 척도로서의 AI(인공지능)

초거대 AI(Hyperscale Artificial Intelligence)인 챗(Chat)GPT의 등장으로 현대인의 정보 확장 및 획득의 패턴이 송두리째 바뀌고 있다. 챗GPT는 쉽게 표현해서 대화하는 AI(인공지능)를 말한다. 챗GPT는 대화하는 방법으로 인간이 궁금해하는 질문에 답을 한다. 질문은 비단 인간의 일상적 문제에만 그치지 않는다. 전문적인 지식이 요구되는 학술계에도 미치는 파장이 엄청나다. 이는 일상의 가벼운 문제뿐만 아니라 전문적 학술적인 문제로까지 그 질문의 영역이 확장하고 있다는 것이다. 그래서 이젠 대학 교육의 장(場)에서도 교수자의 역할을 AI가 대신해야 한다는 AI교수론도 등장한다. 의료계와 법조계 그리고 경제계에도 AI의 등장으로 위기론이 고조되고 있다는 것은 더 이상 비밀이 아니다. AI가 의사를 대체하여 진단하고 처방하는 상황은 쉽게 상상할 수 있다. 사실, 현재도 원격진료나 고난도의 수술 등에서는 AI가 의사를 대체하고 있다.

법조계에서도 판사를 대신하여 법리적으로 판결을 하는 AI판사의 모습이 이젠 전혀 이상하지 않다. 경제계 또한 투자전문가를 대신하여 AI가 전망을 제시하고 있다. 얼마 전 주식시장에서 챗GPT에게 삼성전자의 향후 주가 전망을 자문하는 웃지 못할 상황이 있었다. 어쩌면 이젠 AI가 우리 인간의 스승으로 자리 잡는 듯하다.

page 임마누엘 칸트

사실 인간의 역사를 추적해 보면, 인간의 스승은 인간 자신이 아니라 다양한 모습의 다른 존재였었다. 말하자면 인간이 인간 삶과 관련한 제반 문제의 해결 방안을 인간에게 묻거나 배우지 않고, 인간 외의 타존재에게 의존하는 현상들이 많았다. 쉬운 예로, 어릴 때 인간은 이솝우화 등에 등장하는 동물들로부터 지혜를 배웠다. 동화 <늑대와 일곱 마리 아기 염소>에서는 늑대의 행동으로 ‘타인을 경계하라’라는 교훈을 배웠다. 또한 동화 <아기 돼지 삼 형제>에서는 막내 돼지의 모습에서 ‘부지런한 삶의 가치와 형제간 우애의 소중함’을 배웠다.

그래서 늑대와 막내 돼지는 인간의 삶에 지혜를 전해 준 훌륭한 스승들이었다. 고대 그리스의 철학자이자 원자론의 창시자로 유명한 데모크리토스(Demokritos)도 인간의 스승은 동물이라고 말했다. 예를 들어 인간은 새들로부터 노래하는 법을 배웠고, 거미가 치는 거미줄을 보고 낚시하는 법을 배웠다고 했다. 근대 계몽주의 시대의 거장 괴테(J. W. Goethe)도 “인간은 인간 자신 앞에 놓인 문제를 인간에게 도움을 받아 해결하고자 하지 않고, 인간 이외의 타존재에 의존하여 해결하고자 한다. 하지만 그 사실을 전혀 깨닫지 못한다.”라고 말했다. 그밖에 신화적 사유 속에도 인간의 스승은 신들로 표현되는데, 인간은 인간 자신의 운명을 신들에게 맡겨 자기 삶의 주인이 되지 못했다. 심지어 우리가 그토록 현자로서 추앙하는 소크라테스(Sokrates)조차도 델피의 신전에서 “네 자신을 알라!”(gnothi seuton)라는 신탁을 받은 것으로 유명하다. 하지만 인간 이성을 강조했던 서양의 계몽주의 시대를 거치면서 인간의 문제를 인간 자신의 판단에 따라 해결하고자 하는 경향이 일반화되었다. 이는 인간이 드디어 인간의 스승으로 인정받는 시대가 도래했다는 말이다. 이를 철학에서는 주체적 사고라고 말한다. 이러한 주체적 사고를 강조한 사람이 바로 유명한 칸트(I. Kant)라는 독일 철학자이다.

칸트는 “인간은 어떤 상황에서도 수단(대상)으로 취급되어서는 안 된다. 인간은 목적 그 자체로서 존엄한 존재이다.”라고 말했다. 칸트의 이 말은 곧, 인간이 관계하는 모든 것은 인간에 의해서 평가되며 판단되어야 한다는 것을 뜻한다. 인간이 실천적인 삶의 현장에서 주인공이며, 사물의 판단 기준이라고 생각한 것이다. 이러한 칸트의 생각은 기존의 사고 체계를 완전히 바꾸는 혁명적인 의미를 지녔다. 말하자면 이는 중세 그리스도교적 신 중심의 지배적 생각의 근간이었던 천동설을 부정하고 지동설을 주장한 폴란드의 천문학자 코페르니쿠스(N. Copernicus)의 혁명적 생각과 같은 의미를 지녔다. 그래서 기존의 ‘대상 중심’의 사고에서 ‘인간(주체) 중심’으로 사고의 패러다임을 전환한 칸트의 주장은 “코페르니쿠스적 전환”(Kopernikanische Wendung)이라고 비유적으로 표현된다.

만물의 척도는 AI이다. 현대는 더 이상 인간이 만물의 척도가 아니다. 칸트의 사유 혁명에도 불구하고 더 이상 인간이 주인공인 시대가 아니라 AI가 주인공인 시대다. AI가 인간의 스승으로서 삶의 이정표를 제시한다. 그래서 우리는 AI에게 궁금한 것을 질문한다. 그리고 무비판적으로 AI가 준 답변대로 행동한다. 어쩌면 과거의 원시적 사유에서 인간의 스승이었던 동물이나 신화적 사유 속의 신들이 현재에는 AI라는 이름으로 다시 출현하지 않았나 하는 생각도 든다. 물론 AI가 지속해서 발전하면서 인간에게 다양한 방면에서 편리함을 제공하는 것도 사실이다. 그리고 앞으로도 인간의 삶을 더 윤택하게 만들지 싶다. 그래서 인간은 AI에게 더욱 의존하면서 살아갈 것이다. 하지만 정말 AI가 인간이 던진 질문에 대한 올바른 답을 제시할까? 그래서 인간을 행복한 존재로 만들까? 라는 철학적 질문이 필요해 보인다. 물론 이 질문도 AI에게 맡겨야 할는지 모르겠다.

초거대 AI시대의 화두는 진리 여부의 문제, 즉 참과 거짓의 문제다. 이는 곧 챗GPT 등과 같은 Open AI들이 제공하는 정보를 신뢰할 수 있는가에 관한 질문이다. 달리 표현하자면 AI가 진리의 판결 기준, 즉 참과 거짓의 기준이 될 수 있는가에 대한 논의이다. 전통적으로 철학에는 진리의 기준을 어디에 두는 가에 따라 대응론(Correspondence Theory)과 정합론(Coherence Theory)이라는 진리에 관한 대표적인 두 이론이 있다. 먼저, 대응론은 진리 여부의 기준을 경험에 두는 이론이다. 그래서 어떤 내용이나 진술의 진리 여부는 그 내용이 전해 주는 실제 사실과의 일치이다. 가령 인터넷에 등장하는 스캔들 기사를 생각해 보자. “스포츠 스타 A씨와 인기 여가수 B씨가 프랑스 파리의 모 카페에서 데이트!” 이 기사가 참인지 아닌지의 여부는 실제로 프랑스 파리의 모 카페에서 데이트했는지를 직접 확인하면 된다. 하지만 실제 경험을 통해 사태의 진리 여부를 판단할 수 없는 것들도 많다. 예를 들어 1 + 2 = 3이라는 수학적 진리는 경험으로 확인하여 진리 여부를 판단할 수 없다. 또한 물 1리터와 기름 2리터를 섞었는데, 정확히 3리터가 측정되지 않았다고 해서 1 + 2 = 3이라는 수학적 진리가 거짓으로 인정되지는 않는다. 다음으로, 정합론은 진리의 판단 기준으로 기존의 신념이나 지식 체계에 두는 이론이다. 정합적이란 말은 우리가 기존에 알고 있던 신념이나 지식 체계에 잘 들어맞는 경우를 의미한다. 그냥, 과학적 상식 정도에 일치하는가를 따지면 된다. 그래서 정합론에서는 어떤 내용이나 진술이 기존의 신념이나 체계들과 모순 없이 잘 어울리는가로 진리 여부를 판단한다. 예를 들어 친구가 직접 목격한 황당한 내용의 이야기가 우리의 상식에 어긋나면 정합론의 기준에서는 거짓이다. 하지만 대응론의 기준에서는 진리이다. 왜냐하면 친구가 직접 목격한 경험이기 때문이다. 이처럼 철학에서는 참, 거짓을 판단하기 위한 기준으로서의 대응론과 정합론이라는 이론적 근거를 제시한다.

초거대 AI시대인 현대 사회에서는 더 이상 인간의 이성적 판단으로 혹은 철학적 진리론으로 어떤 문제의 참, 거짓을 판단하고 평가하는 데에는 한계가 있어 보인다. 그래서 진리의 판단 기준을 AI의 판단에 두는 AI 진리론이 등장할 날도 멀지 않았다. 이미 IT산업의 발전으로 인해 인간들은 모든 질문에 관한 답을 정보의 원천인 인터넷에서 찾고 있었다. 사실, AI도 이 IT산업의 기반에서 기존의 정보들을 융합하여 새로운 정보를 생산하고 또한 재생산하는 능력이다. 더 나아가 초거대 AI는 사람이 하는 질문의 의도와 맥락을 이해하여 답변한다. 그리고 가히, 그 답변의 정확성이 미국 로스쿨에 합격할 정도의 수준이라고 한다. 그리고 중요한 것은 이 초거대 AI의 발전이 현재 진행형이라는 사실이다. 심지어는 조만간 인간의 고유한 영역인 창의력과 감성적 능력까지도 갖출 것으로 전문가들은 전망한다. AI가 스스로 생각하며 의식을 갖는 단계에 도달할 것으로 보는 것이다. 이렇다 보니 인간이 AI에 의존하는 것은 어쩌면 너무도 당연해 보인다. AI가 지금껏 우리가 알지 못했던 새로운 차원의 스승으로 인정받는 날이 곧 도래할 것이다. 하지만 “좋은 스승은 훌륭한 제자가 만든다.”라는 말이 있다. 사실 인간이 만든 AI를 인간의 스승으로, 그리고 인간을 AI의 제자로 표현하는 행위가 얼마나 무모하고 위험하냐고 자문하고도 싶다. 그래서 AI가 편향성으로 거짓된 정보를 제공하거나 잘못된 판단을 내리지 않도록 인간의 비판적 성찰이 필요하다. 왜냐하면 AI와 같은 첨단 과학 기술의 발달로 인해 발생할 ‘잠재적 해악’을 예방할 적극적인 대비가 바로 AI를 인간의 참된 조력자로 만들어 줄 것이기 때문이다.