신문로
구글의 시대는 가고 충격적인 인공지능이 온다
짧은 소설을 하나 써보겠다. "정치 부문의 기자 이 선은 꿈이었던 가수 일을 하기 위해 결심했다. 이 선은 자신의 노래를 녹음하고, 음악 프로듀서를 찾아 그녀의 꿈을 실현하기 위해 노력했다. 그러나 그녀는 그녀의 정치부문 기자 이력이 그녀를 막는 것 같았다. 그녀는 그녀의 음악 일을 하면서도, 정치에 관심을 가지고 일하려고 노력했다. 그녀는 결국 그녀의 꿈을 이루었다. 그녀는 가수로서 성공을 이루면서도, 정치 기자로서도 성공을 이루었다."
짧은 글이지만 나름 줄거리가 있다. 이 글은 "정치부 기자가 가수에 도전하는 이야기를 200글자 이내 소설로 써줘"라고 인공지능 챗봇에 요청한 결과다.
챗GPT(ChatGPT)는 인공지능을 연구하는 비영리단체 '오픈AI'(OpenAI)가 개발한 프로토타입 대화형 인공지능 챗봇이다. ChatGPT는 책이나 기사, 웹사이트를 포함한 다양한 인터넷 텍스트 코퍼스에 대해 사전 훈련된 언어 모델이다. 이 모델은 40테라바이트가 넘는 텍스트 데이터셋에서 학습돼 인간과 유사할 정도로 텍스트를 이해하고 생성할 수 있는 능력을 갖게 됐다.
예측할 수 없는 미래 챗봇 모습
2017년 페이스북은 인간의 언어로 서로 대화하며 인공지능 학습을 하는 챗봇 구축을 시도했다. 페이스북은 모자와 공, 책 등을 협상하면서 나눠 갖도록 대화하는 훈련을 시켰는데, AI 챗봇은 인간이 이해할 수 있는 평이한 수준의 "나는 모자만 있으면 되니까 나머지는 네가 가져"(I need the hats and you can have the rest)를 구사했다.
그러나 챗봇과 챗봇이 대화하도록 했더니 인간이 이해할 수 없는 대화를 주고받았다. 이 경우 오류가 나와야 하지만 챗봇은 서로 새로운 문법을 만들면서 대화를 이어나갔다. 인간은 이해하지 못하지만 인공지능 챗봇은 서로 이해하면서 대화를 했던 것이다. 페이스북은 이 현상 발견 후 바로 학습을 종료했다. 하지만 인공지능들이 인간이 이해할 수 없는 언어로 소통하면서 세상을 지배하는 영화같은 시나리오가 현실이 되지 말란 법은 없다.
ChatGPT는 일반적으로 기존에 학습한 데이터를 기반으로 대답을 생성한다. 그러므로 새로운 데이터나 변화된 환경에 대해서는 정확한 대답을 생성하지 못한다. 1년여 전까지의 데이터를 학습했기 때문에, 예를 들어 "현재 한국의 대통령은 누구야?"라고 질문하면 "현재 한국의 대통령은 문재인입니다"라고 답을 한다.
또한 일반적인 문장구조나 언어패턴을 학습하므로 기존의 학습데이터에 나오지 않는 구조나 패턴을 사용한 질문에 대해서는 정확한 대답을 생성하지 못한다. ChatGPT는 입력된 문장에 대해 부정적인 내용을 생성해 사용자에게 불쾌감을 줄 수 있다. 또한 사용자가 입력한 문장에 대한 정보를 수집해 사용자의 프라이버시를 침해할 수 있다.
최근 뉴욕시는 관내 학교 교내 네트워크와 기기에서의 ChatGPT 사용을 금지했다. 이유는 학습에 대한 부정적인 영향, 내용의 안전과 정확성에 대한 우려와 함께 빠르고 쉽게 답을 얻을 수 있지만 학업에 필수적인 사고와 문제해결 능력을 만들지 않아서라는 게 뉴욕시 교육청(NYC DoE) 대변인의 설명이다. 벌써 ChatGPT가 작성한 과제를 인공지능이 가려내는 기술을 개발해야 한다는 요구도 나온다.
곧이어 GPT 버전4가 발표될 예정이라고 한다. 특히 새 모델은 멀티모달(multimodal)이 될 가능성이 있다고 미국 매체 포브스가 전망했다. 지금은 GPT 버전3으로 챗GPT가 모두 텍스트 즉, 글로 명령해야 작동하는데 멀티모달은 텍스트 외에도 이미지와 비디오는 물론, 생체신호처럼 다른 데이터 형식으로 입력해도 모두 인식하는 것을 말한다. GPT4가 등장하면 세상에 쓰나미급 파급효과가 있을 것이라는 게 포브스의 전망이다.
기술의 속도에 지배당하기 전에 준비를
아마도 기술은 여기서 멈추지 않을 것이다. 인간의 창의력까지 넘보는 인공지능은 곧 실현될 것이 분명하다. 우리는 완전히 달라진 인공지능 주도의 삶에 적응할 새로운 지식정보체계를 빠르게 준비해야 한다. 그렇지 않으면 인간은 창의성마저 잃어버리고 기술과 창의성이 구별되지 않는 세상을 맞이할 것이다.
더불어 윤리의식에 둔감한 인공지능의 의사결정으로 인해 복잡한 사회적 문제가 야기될 가능성이 높다. 기술의 속도를 이기지 못하고 지배당하기 전에 긴장감을 늦추지 말고 준비를 해야 한다. 그 어느 때보다 빠른 준비가 필요하다.