서문
인간 작가가 AI 자동 언어 기계를 만나다
“도대체 누가 이야기 쓰는 기계를 원한다는 거야?” 글쎄다.
1953년 로알드 달Roald Dahl은 단편소설 「자동 작문 기계The Great Automatic Grammatizator」에서 이런 질문을 던졌다. 주인공 아돌프 나이프는 많은 어휘를 영문법 규칙과 결합한 다음, 틀에 박힌 플롯에 넣으면 이야기를 만들어 주는 컴퓨터를 이용해 백만장자가 될 꿈을 꾸었다. 한 번 발동이 걸리면 그 기계는 팔릴 만한 이야기를 끝없이 쏟아 낼 수 있었다. 그리고 나이프는 진짜로 돈을 벌었다. 나쁜 점은 없었냐고? 진짜 작가들 밥줄이 끊겼다.
AI인공지능 덕분에 이제 현실에도 작문 기계들이 존재한다. 그 기계들의 능력은 심지어 나이프 씨의 상상을 넘어설 정도다. 그리고 오늘날의 이익은 소설 속 허구가 아니다. 우리 모두가 혜택을 입고 있다. 영리기업들은 물론이고, 당신과 내가 문자메시지를 급히 작성할 때, 인터넷 검색에 착수할 때 혹은 번역기에 도움을 구할 때에도 그렇다.
AI에 대한 호기심이 폭발적이다. 방대한 원천 자료들에 강력한 데이지 체인 방식여러 주변 기기를 컴퓨터에 연쇄적으로 연결하는 방식―옮긴이으로 접속된 컴퓨터 프로세스를 결합해, 정교한 알고리즘을 고안한 덕분이다. 예전 기술들이 우리의 입맛만 다시게 했다면 오늘날의 심층신경망과 거대언어모델Large Language Model, LLM은 일찍이 기대만 키워놓고 애만 태웠던 약속들을 이행하고 있다.
세상 어디든 AI가 화제다. 우리는 딥마인드DeepMind가 만든 알파고AlphaGo가 전통 게임인 바둑에서 당대 최고수 이세돌을 꺾는 것을 인상 깊게 목격했다. 괴이할 정도로 인간을 닮은 모습으로 인간처럼 말하는 소피아Sophia와 같은 실제 로봇들차라리 인간이라고 해야 할까?을 보고 경악을 거듭했다. 2020년 오픈AI가 출시한 강력한 거대언어모델 GPT-3이 단편소설을 창작하고 컴퓨터 코드를 생성하는 것을 보고서 벌린 입을 다물지 못했다. 현대에 등장한 연금술사처럼 달리2DALL-E2는 입력된 텍스트를 이미지로 생성한다. 더 많은, 심지어 더 거대한 프로그램들이 출시되었고 출시를 앞두고 있다.
동시에 우리는 AI로 작동하는 프로그램이 너무나 쉽게 허위 사실을 말할 수 있다는 점 때문에 고심 중이다. 프로그램이 스스로 거짓말을 하면 그것은 환각hallucination이라 불린다. 한번은 GPT-3에게 “알베르트 아인슈타인이 주사위에 대해 뭐라 말했지?”라고 물어봤다. “나는 결코 주사위를 던지지 않는다.”라는 대답이 돌아왔다. 틀렸다. 그는 그렇게 말하지 않았다. 정답은 “신은 주사위 놀이를 하지 않는다.”이다. 프로그램들이 잘못된 것이 아니다. 단지 정확성을 담보하지 못할 뿐이다.
AI는 파렴치한 자들이 가짜 뉴스를 만들고, 소셜미디어에서 위험한 소란을 일으키고, 또 특정 인물처럼 보이거나 말하도록 딥페이크Deep Fake 영상을 생성하는 데 이용될 수도 있다. 그렇다. 버락 오바마 전 미국 대통령은 도널드 트럼프를 ‘멍청이dimwit’와 운이 맞는 욕설가령 쓰레기 dipsh*t로 칭한 적이 없다. 몸을 더듬는 성추행 같은 위험천만한 일들이 가상현실에서도 일어나고 있기 때문에 메타버스 같은 가상공간에서의 삶은 더욱 오싹할지도 모른다.
AI로 언어를 다루려는 시도는 오래전부터 있었다. 언어를 분석하고 글을 쓰고 번역하려 했다. 컴퓨터과학의 아버지 앨런 튜링Alan Turing의 사고실험으로 출발한 AI는 1956년에는 학과로 승격되었다. 그때부터 줄곧 AI 기업의 가장 근본적인 숙제는 언어였다. 음성합성과 음성인식 기술이 도래하기 전에 언어는 곧 문자를 뜻했다. 하지만 우리가 최근에 마지막으로 시리Siri와 알렉사Alexa, AI 개인 비서 응용프로그램―옮긴이와 같은 기술 과시용 음성 서비스를 즐겼던 시기만 제외하면, 현재 프로그래밍의 핵심은 구어와 문어를 모두 통달하고자 한다는 점에서 서로 비슷하다.
두 작가 이야기
이 책은 인간 작가와 AI 언어처리 프로그램의 접점을 찾아보려 한다. 상대의 존재를 부정할 것인가, 상부상조할 것인가, 이도 저도 아니면 각기 제 갈 길을 갈 것인가. 1950년대 이래로 AI 기술은 상상을 초월할 정도로 발전을 거듭했고 특히 2010년대부터는 AI의 시대가 열렸다고 해도 과언이 아니다. 어설픈 슬롯slot과 필러filler 방식인공지능의 지식 표현 방법 중 하나인 프레임 시스템에서 슬롯은 가장 단순한 형태의 속성값들의 쌍이며, 필러는 실제로 채워지는 값을 말한다―옮긴이으로 시작한 기술은 이내 인간이 쓴 것으로 착각할 만한 글을 써낼 정도로 능력이 출중해졌다. 연구 참석자 한 명에게 글을 읽히고 사람이나 컴퓨터 중 누가 쓴 것 같으냐고 물었더니 이런 답이 돌아왔다. “내가 읽은 글을 누가 쓴 건지 모르겠어요. 도무지 모르겠군요.”
만약 어디부터 확인해야 하는지를 알고 있다면 상황이 구제불능인 것은 아니다. 특히 긴 문장일수록 동어반복을 한다든지 사실 확인이 부실하다든지 하는 식으로 기계의 손을 거쳤음을 말해 주는 명백한 흔적이 종종 있기 마련이다. 그리고 뻔해 보이지만 영리한 실험이 밝혀낸 다른 단서들도 있다. 교수 네 명에게 작문 과제물 두 편을 평가하고 점수를 매겨 달라고 요구했다. 첫 번째가 인간이 쓴 것이고 두 번째는 GPT-3이 작성한 것이지만 평가자들에게 그런 사실을 귀띔하지는 않았다. GPT-3을 포함해 작성자들은 에세이 두 편과 함께 창의적인 글을 써 달라는 요청을 받았다.
첫째, 점수. GPT-3은 에세이 대부분에서 합격점을 받았다. 그리고 제출한 과제에 대한 교수들의 서면 평가도 인간의 과제물이든 컴퓨터의 것이든 비슷했다.
창의적인 글쓰기 과제의 결과는 달랐다. 한 교수는 GPT-3에게 D+을 주었고 다른 교수는 F를 주었다. F를 준 평가자들의 의견은 다음과 같았다.
“이 문장들은 조금 상투적입니다.”
“이 과제물은… 문장의 다양성과 구조적 긴밀성과 작품의 형상화 측면에서 부족해 보입니다.”
“독자를 당신의 세계로 끌어들이기 위해 감각을 총동원하세요.”
앞의 두 평가는 놀랍지 않다. 결국 GPT-3과 같은 거대언어모델은 다른 작가들의 상투적 문구를 비롯해 입력된 데이터에 기반하여 단어와 어구들을 그대로 되뇔 뿐이다. 그렇건만 감각들을 총동원하라는 조언에서 나는 잠시 멈추어 낸시를 떠올렸다.
낸시는 내가 대학생 2학년 시절에 만난 새 룸메이트였다. 당시의 관행대로 우리는 수레를 끌고 방을 꾸밀 장식물과 침대보를 사기 위해 동네 백화점으로 갔다. 가는 도중에 우리는 침대보를 어떤 색으로 고를지 얘기했다. 낸시는 계속해서 ‘그거 말고’라면서 줄곧 녹색을 고집했다. 나는 그녀의 완강함에 몹시 놀랐다.
사실 낸시는 젖먹이 때부터 눈이 멀었다. 함께 몇 달을 지내고 나서야 나는 낸시의 어머니께서 녹색을 좋아하며 당신의 눈먼 딸에게 녹색에 대한 애착을 주입하셨다는 것을 알게 되었다.
낸시의 사례는 창의적 글쓰기 과제물 작성자에게 “감각을 총동원하라”고 충고했던 교수의 평가를 떠오르게 한다. 낸시가 시각이 없다면 AI는 어떤 감각도 없다. 그런데 낸시가 녹색을 선호하도록 양육되었다면 GPT-3이 시각, 청각, 총각, 미각과 후각에 대해 대리적 취향을 갖도록 섬세한 조율을 받았다고 짐작하는 것은 조금도 지나치지 않다.
컴퓨터가 인간만큼 안정적인 수준으로 글을 쓸 수 있다고, 혹은 어쩌면 그보다 더 잘 쓸 수 있다고 상상해 보라. 그게 중요한 문제인가? 우리는 그런 발전을 환영할 것인가? 그래야 할까?
이런 의문들은 어쩌면 가능할지도 모르는 세상에 관한 질문이 아니다. 이미 AI는 업무 문서와 이메일, 신문과 블로그로 자신의 영역을 넓히고 있다. 작가들은 AI에 영감과 협력을 구하고 있다. 걱정스러운 것은 다가올 미래에 단지 인간의 쓰기 능력뿐만 아니라 어떤 일자리든 여전히 인간에게 유효한 영역으로 남아 있을까 하는 의문이다.
(본문 중 일부)
★ 저작권법에 의해 한국 내에서 보호를 받는 저작물이므로 무단전재와 복제를 금합니다.