[ET단상]챗GPT와 인공지능의 일상화

임희석 고려대 컴퓨터학과 교수(고려대 Human-Inspired AI연구소장)
임희석 고려대 컴퓨터학과 교수(고려대 Human-Inspired AI연구소장)

바야흐로 챗GPT 시대다. 더닝-크루거 효과는 어떤 내용에 대해 지식이 적을 때 잘못된 과대평가를 하는 인지 편향을 뜻한다. 챗GPT의 더닝-크루거 효과를 줄이기 위해서는 기술에 대한 능력을 비롯해 한계 등 무엇이 왜 그런지 명확한 이해가 필요하다.

인공지능(AI)은 사람이 컴퓨터보다 잘하는 것을 컴퓨터가 할 수 있도록 연구하고 개발하는 분야다. 사람이 잘하는 언어를 컴퓨터가 이해하고 생성하도록 하는 연구가 자연어처리다. 자연어처리는 언어 이해 기술을 개발하는 자연어이해 분야와 언어를 생성하는 자연어생성 분야 기술로 나눌 수 있다. 챗GPT는 사용자의 질문(프롬프트)에 적합한 대답을 언어로 생성하는 자연어생성 기술 가운데 하나다.

어떻게 사용자의 질문에 지능적으로 대답할까? 그것은 사람의 말과 글을 학습시킨 초거대 언어모델 덕분이다. 언어모델은 단어 맞히기 게임을 잘하는 모델이라 할 수 있다.

예를 들어, “나는 조금 전 밥을”이라는 입력이 주어 졌을 때 그 다음에 어떤 단어가 나오는 것이 가장 그럴 듯한 지를 계산해 생성하는 모델이다.

방대한 양의 언어와 컴퓨팅 자원으로 단어 게임을 정말로 잘하는 모델을 만든 것이 초거대 언어모델이다.

챗GPT 덕분에 죽기 전에 볼 수 있을까 하던 영화 '아이언맨'의 AI 자비스가 성큼 다가온 것 같다. 하지만 과도한 기대와 약간은 과장된 예측은 과거의 AI 스피커를 떠올리게 한다.

그 많던 AI 스피커는 어디로 갔을까?

챗GPT가 불행한 전철을 밟지 않고 일상화되는 기술이 되기 위해서는 그 능력과 한계에 대한 정확한 진단과 평가, 그에 따른 적합한 활용이 필요하다.

챗GPT의 능력에 대해서는 이미 많이 알려져 있다. 그렇다면 그 한계는 무엇인가. 몇 가지만 이야기해 본다. 첫째 그럴듯하게 쓰인 잘못된 정보(misinformation)를 생성할 수 있다. 둘째 생성한 응답에 대한 근거와 설명력이 부족하다.

기계의 결과를 사람이 이해할 수 있도록 설명할 수 없다면 사람은 그 기계를 신뢰할 수 없으며 신뢰할 수 없으면 해당 기계를 사용할 수 없게 된다.

셋째 새로운 정보를 빠르게 학습하지 못한다. 넷째 현재는 읽고 쓰는 것만 잘한다.

미국의사자격 시험을 통과했다는 기사도 사실 챗GPT가 해결 가능한 유형의 사지선다형 문제 그리고 단답식 문제만을 추려서 실험을 한 결과다.

AI가 일상화하기 위해서는 읽기·쓰기뿐만 아니라 말하기, 듣기, 보기, 추론, 계획 등 복합지능이 요구된다.

챗GPT의 대단한 능력이지만 태생적 한계를 고려할 때 우리는 무엇을 해야 하는가. 첫째 해당 기술의 성공 사례를 발굴하고 해당 사례를 사회와 산업에 적극 활용해야 한다. 이를 통해 더닝-크루거 효과의 마지막 단계로 빨리 진입할 수 있을 것이다.

둘째 단순 계산·암기·독해·글쓰기 위주의 관련된 교육 시스템을 점검하고, 새로운 교육 시스템을 준비해야 한다. 셋째 지식 관련 직업 세계에 쓰나미 같은 변화가 예상되며, 다음 세대의 직업과 취업 시장 변화를 예측하고 준비해야 한다. 넷째 일상화하는 AI 기술의 영향력을 이해하고, 저작권·정보보호 등 디지털 윤리를 정립하며 미래를 준비해야 한다.

다섯째 현재 우리는 빠른 추격자로서 한국어 특화 챗GPT 개발을 시작했다. 그러나 여기서 더 나아가 멀티모달 복합지능의 AGI(Artificial General Intelligence) 기술을 개발해서 AI 일상화를 이루는 데 선도 국가가 되기 위한 과감한 투자와 노력이 필요하다. 세계인들이 대한민국 기술로 만든 AI 자비스를 대한민국이 만든 스마트폰에서 활용하는 날을 기대해 본다.

임희석 고려대 컴퓨터학과 교수 limhseok@korea.ac.kr