금요진단
인공지능은 과연 인간의 지능을 따라잡을까
2010년대 중후반에 크게 유행하던 인공지능(AI) 관련 트렌드가 잠잠해지나 싶더니 2023년(정확히는 2022년 말) 갑작스레 챗GPT가 등장하면서 또다시 AI가 전세계적으로 난리다. 그리고 이런 트렌드에 올라타지 못한 조직이나 개인은 망할 거라는 전망도 많고 이로 인한 공포감이 엄습하기도 한다. AI의 미래가 우리에게 어떻게 다가올지가 두렵다면 AI의 본질을 차분히 생각해 보아야 한다.
AI를 포함한 모든 종류의 프로그램은 ‘주어진 입력에 대해서 출력’을 돌려주는 방식이다. 즉 우리가 중고등학교 수학에서 배웠던 바로 그 y=f(x)로 표현되는 ‘함수’ 구조인 것이다. ‘먼저 입력이 주어지면 그에 대한 해답을 출력한다’라는 방식은 최신 AI 기술로 여겨지는 챗GPT에서도 변함이 없다. 챗GPT에서는 입력이 ‘인간의 언어인 문장’이고 이에 대한 출력값도 ‘인간의 언어인 문장’이다.
물론 챗GPT와 같은 ‘거대언어모델(LLM)’은 입출력값으로 ‘인간의 언어인 문장’ 외에도 각종 숫자 그림파일 오디오파일과 같은 여러가지 입출력값도 지원할 수 있다. 그래서 LLM을 요즘에는 ‘인공일반지능(AGI)’이라고도 부르는 것이다. 혹은 다른 표현으로 ‘멀티모달(Multi Modal) AI’라고도 한다.
AI 기술방식 승부 인공신경망으로 기울어
그렇다면 일반 프로그램과 AI의 차이점은 무엇일까? 한마디로 단순화해서 설명하자면 일반 프로그램은 주어진 입력값의 모든 경우에 대한 출력값을 사람이 미리 프로그램 내부에 정해놓는 것이다. 반면 AI는 일부의 입력값에 대해서만 출력값을 사람이 미리 프로그램 내부에 정해놓으면 출력값이 미리 프로그램 내부에 정해져 있지 않은 입력값이 들어오더라도 이에 대해 적절한 출력값을 내놓을 수 있다는 점이다.
이런 회귀분석을 컴퓨터 프로그램으로 만들면 그게 바로 일종의 AI다. 1이라는 입력값에 대해서 출력값이 3이고, 2에 대해서는 5, 4에 대해서는 9, 5에 대해서는 11이 출력되는 현상을 목격한 사람에게 만약 입력값으로 3이 들어오면 무엇이 출력될 것인지를 물어본다면 7이 출력될 것이라고 쉽게 대답할 것이다. 그 사람의 머릿속에서 y=2x+1이라는 간단한 함수식이 쉽게 떠오르기 때문이다. 이것이 회귀분석, 보다 정확히는 ‘선형 회귀분석’ 또는 ‘1차 회귀분석’의 기본개념이며 앞에서 3이 입력될 때의 값을 계산하는 것을 ‘보간법’이라고 한다.
그리고 앞에서 말했던 ‘일부의 입력값에 대해서만 출력값을 사람이 미리 프로그램 내부에 정해놓는’ 행위와 더불어 이를 바탕으로 ‘미리 프로그램 내부에 정해놓은 출력값이 없는 입력값에 대한 출력값을 만들어주는 함수식’을 정해서 프로그램에 삽입하는 행위를 AI 용어로는 ‘학습(Learning)’이라고 한다.
한편 ‘미리 프로그램 내부에 정해놓은 출력값이 없는 입력값에 대한 출력값을 만들어주는 함수식’을 정하는 방식에 따라서 지난 70여년 동안 수많은 AI 유파가 명멸했다. 이 함수식으로 형식논리학의 각종 결과물을 사용하는 방식을 ‘룰 베이스 AI(Rule-Based AI)’ 또는 ‘심볼릭 AI(Symbolic AI)’라고 불렀다.
또 k-최근접 이웃(k-Nearest Neighbor), 나이브 베이즈 분류(Naive Baysian Classifier), 서포트 벡터 머신(Support Vector Machine) 등의 선형함수를 사용하는 유파들도 있었고, 대표적인 비선형함수인 인공신경망(ANN, Artificial Neural Network)을 사용하는 유파도 있었다.
그리고 ANN을 사용하는 유파도 신경망의 층을 여러겹으로 두껍게 가져가는 ‘깊은 신경망(DNN, Deep Neural Net)’ 유파와 하나의 층에 속한 노드(Node)의 개수를 여러 개로 가져가는 ‘얕은 신경망(SNN, Shallow Neural Net)’ 유파도 있었다.
한편 ‘심볼릭 AI’ 유파는 함수식의 세부 계수와 상수 설정을 사람이 직접 해야 하는 데 반해 나머지 유파는 프로그램을 이용해 계수와 상수 설정을 자동화할 수 있었다. 이렇게 함수의 뼈대만 설정하면 계수와 상수는 표본(입력값-출력값 쌍들의 실험값 집합)을 이용해 자동 설정하는 방식을 ‘기계학습(Machine Learning)’이라고 한다.
그런데 세월이 흐르면서 컴퓨터의 성능이 비약적으로 향상되고, 이에 따라서 표본의 크기도 매우 커지면서 이들 유파들 사이의 승부가 점차 ANN, 그 중에서도 DNN쪽으로 완전히 기울게 된다.
그리고 수년 전까지 거의 대부분 AI 연구는 DNN에서 세부적으로 어떤 구조로 갈지 몇개의 층으로 갈지, 노드의 개수는 몇개로 갈지가 중요한 연구 테마였는데 지금은 아예 노드의 개수는 무조건 많게, 층의 개수도 무조건 많게, 구조 방식은 LLM 방식의 싸움이 되고 있다. 결국 마이크로소프트 구글 메타(페이스북) 아마존 애플과 같은 세계 최고의 시가총액을 가진 회사들의 전쟁터가 되어 버린 게 오늘날의 AI산업이다.
노드 수 늘린다고 고등지능 될지 미지수
사실 ANN의 주요 이론은 이미 1990년대에 완성되었고, 2010년대에 LLM의 개념까지 추가되어서 최근 AI 기술 경쟁은 노드 수를 높이는 것에 집중되고 있다.
1940년대 ANN을 최초 연구하던 연구자에서부터 이를 70여년 간 계승해온 연구자들의 소박한 믿음인 ‘사람 두뇌의 신경망처럼 간단한 모델에서 사람 두뇌처럼 뉴런과 시냅스 개수만 늘리면 진짜로 고등지능이 동작할 것 같다’가 현실이 되고 있는 것처럼 보인다.
사람의 두뇌는 600억에서 1000억개 정도의 뉴런을 가지고 있고 그들의 연결 부위인 시냅스는 수백조개에 달한다고 하는데 챗GPT4는 시냅스와 유사한 개념인 노드 수가 5000억개 정도라고 한다. 과연 이 노드 수를 수백조개로 늘리면 진짜 인간수준의 지능이 탄생하는 것일까? 아직까지는 좀더 지켜볼 일이다.
챗GPT4보다 훨씬 작은 노드 수를 가진 라마(LLAMA, 메타가 발표한 대규모 AI 언어모델)를 이용해서도 비슷한 성능을 달성했다는 문헌을 보면 현재의 LLM이 단순히 노드 수만 늘려서 인간의 지능 수준에 다다를 수 있을지 회의적으로 보이기도 한다. 그리고 AI의 본질은 수학적으로 ‘보간법’이라는 진리에는 변함이 없다. ‘보간법’으로 추측된 값이 진짜 함수값 즉 참값이 될지는 오직 신만이 알 수 있는 영역이다.
AI가 최초로 인간 수준에 도달했던 ‘영상인식’ 분야에서도 입력되는 이미지 파일에 단지 점 몇개만 찍는 오염만으로도 인식률을 형편없이 떨어트릴 수 있다는 사실이 그후 발견되면서 ‘보간법’으로 나온 추측값이 얼마나 안정적인지에 대한 우려를 심화시킨다.
AI 정확성 체크할 전문가는 필수
LLM이 각광받는 가장 큰 이유는 AI가 만들어낸 문장이 마치 인간의 것과 비슷한 자연스러움을 선사하는 최초 사례이기 때문이다. 그런데 문제는 LLM이 꽤 자주 사실이 아닌 환각을 이야기한다는 점이다. 그러다 보니 최근에는 AI가 오답이 별 문제가 안되는 디자인 회화 음악 소설과 같은 예술분야에서 더욱 널리 응용되고 있다. 이런 분야에서는 AI의 오답이 치명적이기보다 때로는 창의력으로 탈바꿈할 수도 있기 때문이다.
과연 AI가 이런 창의력 분야가 아닌 정확성이 생명인 분야에서도 영향력을 넓힐 수 있을까? 필자가 대학원에서 AI를 공부하기 시작한 1990년대 중반 이후 지금까지의 패턴을 살펴보면 AI가 인간의 능력에 가까워질수록 오히려 정확도는 떨어지거나, 매우 정확한 것 같다가도 가끔 치명적인 오류를 범하고 있음을 관찰한다.
만약 정확성이 핵심인 분야에 AI가 접목된다면 그 AI의 정확성을 다시 체크해 보증할 전문가가 필수로 요구될 것으로 예상한다. 그리고 그러한 사람은 적어도 우리 세대에는 지속적으로 활약을 하지 않을까 생각한다.
이해성 내일e비즈 CTO/부사장