한정훈 칼럼

인공지능 시대의 문-이과 담론

2024-10-08 13:00:01 게재

“작년에 왔던 각설이 죽지도 않고 또 왔네.” 노래 속 각설이처럼 한국 사회에서 유독 질긴 생명력을 자랑하는 것이 문과-이과 담론이다. 주로 문과 출신이 쓴 글을 통해 ‘인문학적 상상력이 있어야 스티브 잡스 같은 훌륭한 공학자가 될 수 있다’ ‘문과 출신에겐 이과생에게 없는 긴 호흡과 안목으로 문제를 해결하는 능력이 있다’는 주장이 전파된다. 쉽사리 동의할 수 없어 고개를 갸웃거렸다가는 이과 출신이라 문해력(文解力)이 부족하다는 비난이 따라붙는다.

개념이 모호할 땐 구체적인 사례를 드는 게 좋다. 물리의 신 뉴턴도 ‘좋은 사례가 이론보다 더 중요하다(Examples are more important than theory)’고 했다. 이과 수업이 이론 강의와 실험 실습, 연습문제 풀이를 병행하는 이유이기도 하다. 주장과 이론이 현실과 타당하게 들어맞는지 검증하는 게 실험실습이고, 이론을 구체적으로 사례를 통해 풀어보고 이해하는 게 연습문제 풀기다.

긴 호흡이 필요한 문제가 무얼까 고민하다 보니 최근 필자가 흥미롭게 공부하는 인공지능 학습 방법론인 ‘트랜스포머’가 떠올랐다. 인공지능 전반에 걸쳐 사용되는 이 기술의 핵심에는 ‘어텐션 기법’이 자리잡고 있는데 한 단어와 다른 단어 사이의 친밀도, 즉 연관성을 수학적으로 계산해주는 알고리즘이다.

예를 들어 ‘가을이 되니 낙엽이 진다’라는 문장에서 ‘가을’이란 단어와 ‘낙엽’이란 단어가 서로 밀접한 연관을 갖고 있음을 인간은 경험을 통해 인지하듯 트랜스포머 역시 수많은 문장을 학습하는 과정에서 서로 주목해야 할 단어가 무엇인지를 배워나간다. 학습의 층이 두터워질수록 한 문단 한 단원 속에서도 두 단어 사이의 연관성을 파악할 수 있게 된다. 이른바 문맥이 트이고 문해력이 생긴다.

기계적 두뇌가 생물학적 두뇌 능가

GPT라는 이름으로 잘 알려진 인공지능은 전세계에 존재하는 모든 문서를 학습했다고 한다. GPT3부터는 학습한 데이터의 양이 어떤 임계점을 넘기 시작했고 그 덕분에 인간 수준의 문해력도 얻게 되었다. 통계학의 제 1원리 ‘큰 수의 법칙’이 떠오른다. 경험적으로 섭취한 지식이 많아질수록, 데이터가 많을수록 통계적인 추정치가 정답에 가까워지며 오답을 예언할 확률은 줄어든다는 원리다. GPT는 ‘큰 수의 법칙’을 충실하게 따르는 기계라는 걸 최근 인공지능의 모습이 보여준다.

‘긴 호흡이 필요한 문제’란 결국 방대한 데이터를 학습하는 과정에서 얻어진 통계적 지식과 이를 바탕으로 한 이해가 필요한 문제다. 긴 호흡이란 건 학습해야 할 문서의 양이 많다보니 지식습득 과정 또한 길고 인내를 필요로 한다는 말로 해석된다. 인공지능은 막대한 양의 전기와 GPU를 투입해 이 시간과 인내의 장벽을 무너뜨렸다.

이세돌이란 한 천재기사의 생물학적 두뇌를 수백개의 GPU로 무장한 알파고의 기계적 두뇌가 이겼듯 이제는 기계적 인문학적 두뇌가 생물학적 인문학적 두뇌를 능가한 세상이 왔다. 이제 문과적 두뇌가 싸워야 할 유령은 문-이과 논쟁에서 즐겨 다루던 생물학적 이과적 두뇌가 아니라 기계적 문과적 두뇌가 되었다. ‘인간이 긴 호흡으로 학습한 지식 및 지혜와 기계가 많은 에너지를 투입해 학습한 지식 및 지혜의 차이는 무엇인가?’ 의미있는 질문은 이것이다.

영리한 중학생에게 뉴턴법칙이 무엇인지 알려주면 그 다음 날부터 간단한 뉴턴역학의 문제를 척척 풀어낼 수 있다. 뉴턴역학은 통계적 지식이 아니라 논리적 연역적 지식이기 때문이다. 논리적 연역적 지식의 총아인 줄 알았던 인공지능이 귀납적 통계적인 지식을 고스란히 재현해내는 단계에 이르렀고, 문과적 통찰력의 근원이 무엇인가란 위협적인 질문을 던지기 시작했다. ‘논리적 지식과 경험적 지식의 차이는 무엇인가?’ ‘인문학적 지식과 통계적 지식의 차이는 무엇인가?’ 죽은 줄 알았던, 대대로 철학자들이 던졌던 질문들이 인공지능이란 새 옷으로 단장하고 각설이처럼 돌아왔다.

물리학적 통찰 바탕으로 인문학 이해하기

어텐션과 트랜스포머의 원리를 공부하다 보면 그 공식과 배경 철학이 물리학에서 한 세기 이상 사용해오던 ‘평균장 이론’과 비슷하단 느낌이 온다. 역시나 단어를 입자로, 어텐션을 입자끼리의 상호작용으로 취급해 그 상호작용의 결과물인 학습된 지식은 평균장 이론에 해당한다는 주장이 이미 논문으로 나와 있다. 대단히 많은 입자로 구성된 물리계에서 잘 작동하는 게 평균장 이론이다.

인공지능이 다루는 데이터 공간 또한 수많은 데이터가 존재하고 서로 상호작용한다. 물리학적 통찰을 바탕삼아 통계적 지식 체계, 나아가서 인문학적 지식 체계를 이해할 가능성이 열릴 것이다. 문과냐 이과냐의 낡은 이분법을 혁파하고자 논쟁할 시간과 지력이 있다면 인공지능 속에 담긴 진리를 이해하는 데 쓰는 게 낫다. 이해력은 바라지도 못한 채 문해력 논란만 되풀이하는 문-이과 담론 뒤엔 뭐니뭐니해도 이과 위엔 문과라는 우물안 개구리식 사고가 자리잡고 있는 건 아닌지 돌아볼 때다.

성균관대학교 교수

물리학과