신판 머리말
이 책 『AI 버블이 온다』를 먼저 읽은 독자들로부터 ‘보나마나 과학기술에 반대하는 장광설을 접하겠거니 생각하며 책을 집어들었다’는 말을 종종 들었다. 그런데 책 내용이 어느 쪽에도 치우치지 않고 상당히 균형 잡힌 시각을 견지했다는 사실을 알게 되고는 기분 좋게 놀랐다는 이들이 있는가 하면, 반대로 기분 나쁘게 놀랐다는 이들도 있었다. “뱀기름 AIAI Snake Oil”라는 원제목과, 그보다 좀 더 구체적인 부제목“AI가 할 수 있는 것과 할 수 없는 것, 그리고 그 차이를 구분하는 법”을 감안하면 어느 쪽이든 당연히 그럴 수 있다고 생각한다. 그래서 우리는 머리말에서 여러분이 읽게 될 책의 성격을 미리 알려드리는 게 가장 좋겠다고 생각했다.
분명히 해두건대 이 책에서는 좋으면 좋다, 나쁘면 나쁘다고 주저 없이 말한다. 하지만 AI에 대한 섣부른 일반화는 피하려고 최대한 노력한다는 점 또한 알아주었으면 좋겠다. AI가 전부 쓸모없다고 생각했다면, 책 한 권을 읽는 수고를 굳이 여러분에게 끼치지 않았을 것이다. 그리고 AI 과장 광고가 그토록 많은 오해를 불러일으키는 이유는 다름 아니라 몇몇 AI 앱들이 빠르게 개선되고 있기 때문이다. 어떤 환경에서 어떤 임무에 어떻게 적용하는지에 따라 AI 각각의 유용성은 천차만별로 달라지는데, 그런 AI를 마치 단일 과학기술처럼 생각해버리는 경우가 많다.
기술이 빠르게 진보하는 상황에서 AI에 관한 책이 언제까지 시의성이 있을 것 같냐는 질문을 종종 받는다. 다행히 이 책의 목표는 최근 동향을 이렇다 저렇다 논평하는 것이 아니라 여러분이 진짜 발전과 과장 광고를 구별하는 데 도움이 될 기초 지식을 제시하는 것이다. 이 책은 우리가 얼마나 잘했는지 돌아보고 평가하기에 충분할 만큼의 시간을 거쳤다. 과학기술이 발전해서 수정해야 할 부분이 생겼나 하고 봤더니 다행히 없어서, 앞으로도 계속 시간의 시험을 견딜 수 있지 않을까 조심스럽게 낙관해본다.
책이 성공하려면 시의적절해야 한다. 이와 관련해 우리는 시의성의 측면에서 운이 좋았다. 챗GPT가 발매됐을 때 ‘AI가 정말 많이도 발전했구나’라는 인식이 널리 퍼져나갔다. 이 책에서도 설명하다시피 사실 이 분야의 기본적인 기술은 80년의 역사를 거치며 점진적으로 발전해왔다. 그중에서 챗GPT는 전임자인 GPT-3에 비하면 사소한 개선에 지나지 않았다. 큰 변화는 AI의 능력이 아니라 대중의 인식 속에서 이루어졌다. 이 책이 챗GPT 발매 후가 아니라 그 직전에 쓰였다 해도 기본적인 논점은 달라지지 않았을 것이다. 하지만 그 제품을 제대로 언급하지 않았다면 이 책은 영락없는 실패작이 되고 말았을 것이다. 왜냐하면 사람들이 도대체 시의적절과는 거리가 먼 책으로 치부해버렸을 터이기 때문이다.
우리는 내일이면 AI의 혁명으로 일컬어지는 새로운 제품이 나올지도 모른다는 두려움을 안고 이 머리말을 쓰고 있다. 설령 그런 일이 일어난다 해도 속지 마시라. 십중팔구 혁명이 아닐 테니.
이 책의 핵심 논거들이 AI의 발전에도 유효한 이유는 여기서 지적하는 AI의 한계 대부분이 기술적 측면과는 무관하기 때문이다. 채용, 교육, 형사 사법, 기타 많은 영역에서 사람들의 미래 행동을 예측함으로써 사람들의 삶을 바꾸는 결정을 내리는 데 사용되는 예측형 AI를 생각해보라. 우리는 두 가지 주된 이유 때문에 예측형 AI에 대체로 회의적이다. 하나는 AI를 사용하든 사용하지 않든 미래를 예측하기는 쉽지 않다는 점이다. 또 하나는 예측형 AI는 자동화된 결정에 좌지우지되는 사람들에게 해를 입히는 기술관료적 사회 통제 사고방식을 대변할 때가 많다는 점이다. 이러한 논거들은 문제의 과학기술보다 인간의 본성 및 사회와 훨씬 더 밀접하게 맞물려 있다.
이 책에서는 예측형 AI 가운데 몇몇 종류를 정교한 난수 생성기에 비유한다. 사람들은 우리에게 뭔가 결정하는 데 난수 생성기를 사용하는 게 그렇게 나쁘냐는 질문을 종종 던진다. 그렇지 않다! 사실 우리는 채용이나 대학 입학 같은 환경에서의 부분 복권 사용을 옹호한다. 부분 복권이란 일정 기준을 충족하는 지원자들 중에서 무작위로 선정되는 시스템이다. 하지만 당장은 대중 사이에서 이 개념이 그다지 지지를 못 받고 있다. 예측형 AI의 매력은 AI가 예측에 능하다는 집단 착각에 기반한다. 이 책이 이러한 태도를 조금이라도 바꾼다면, 그리하여 사람들이 무작위성을 벗 삼아 살아야 할 때가 많다는 점을 인정하게 된다면 그것으로 우리는 성공한 셈이다. 예측형 AI에서 부분 복권으로 결정 시스템을 전환하면 더 나쁜 결정이 나오지도 않을 테고, 의사결정자와 의사결정 대상자에게서 무책임한 AI 장사치들한테로 권력이 이동하는 상황을 막는다는 커다란 이점 또한 누리게 될 것이다.
반면 챗봇 같은 생성형 AI 앱에 관해서 우리는 신중한 낙관론자다. 흥미롭게도 계속해서 기술이 변화하는 분야가 바로 예측형 AI에 적용되는 챗봇 뒤의 과학기술이다. 이는 이 책에서 생각과 처방을 안내하기 위해 설명하는 AI 분류와 충돌을 일으키지 않는다. 가장 중요한 차이는 근본을 이루는 기술이 아니라 적용이기 때문이다기술 자체에 관해서 이 책은 그렇게 명쾌하진 않다. 예를 들어 어떤 회사가 챗봇에 이력서를 읽히고 누가 이러이러한 일을 잘 해낼지 예측해보라고 주문한 뒤 그 반응에 따라 입사 지원자들을 받거나 떨어뜨린다면, 그 챗봇은 여전히 예측형 AI이며 우리의 회의론 또한 여전히 유효하다. 적용의 핵심은 텍스트 생성이 아니라 의사결정이다.
실질적인 생성형 AI로 눈을 돌리면, 우리는 이 책에서 이 앱이 인지적인 일을 하는 사람들에게 어떤 식으로든 유용할 것이라고 말한다. 일단 우리부터도 특히 AI 능력이 빠르게 발전하는 분야인 컴퓨터 프로그래밍 관련 일을 할 때면 생성형 AI를 뻔질나게 사용한다. AI는 몇몇 코드는 물론 그 코드가 해야 할 일을 알려주는 텍스트 설명에 기반해 (비록 간단하긴 하지만) 전체 앱까지 생성할 수 있다. 때로는 앱스토어에서 필요한 앱을 찾는 것보다 AI로 원하는 앱을 직접 만드는 것이 더 빠르다. 우리를 비롯해 많은 프로그래머가 AI의 도움을 받지 않고 코드를 작성하던 시대로 돌아간다는 것을 상상하지 못한다.
반면 생성형 AI의 능력이 갈수록 늘어나고 관련 제품들도 급증하면서 함정에 빠질 위험 또한 날로 증가하고 있다. 예를 들어 AI가 생성한 코드에는 감지하기 어려운 버그가 담길 수 있다. 당장은 사용자가 알아서 조심하는 수밖에 없다. 물론 이 책이 생성형 AI의 위험과 한계를 이해하는 데 도움이 될 기초 지식을 제시하겠지만, 각자의 업무 흐름 안에서 자신이 원하는 특정 방식으로 AI를 사용하는 이해력을 기르려면 시간과 실험이 필요하다. 학습 곡선이 가팔라 오랜 시간과 비용이 걸릴지도 모른다면, 생산성 측면에서 생성형 AI는 여전히 가치가 있을까? 글쎄, 때로는 가치 있을지도. 일반적인 지침을 제시하기는 어려울 듯하다.
다시 말해 생산성 향상은 업무에 생성형 AI를 사용하는 유일한 이유가 아니다. 생성형 AI를 사용하는 건 재밌다이 책은 그게 얼마나 재밌는지는 얘기하지 않는다! 우선 우리부터 생성형 AI 덕분에 일을 더 재미있게 할 때가 많다. 예를 들어 지루한 일을 자동화할 때, 우리의 창의성을 고양해주는 ‘생각하는 파트너’로 생성형 AI를 사용하기도 한다. 이런 이유만으로도 여러분 또한 한번 생성형 AI를 적극 사용해볼 것을 권한다.
슬프게도 생성형 AI 사용이 직무 만족도에 미치는 영향은 분야마다 다르다. 몇몇 직업의 경우에는 AI가 힘들고 단조로운 일은 인간에게 맡기고 재미있고 창의적인 일은 자동화한다는 이야기가 심심찮게 나온다. 효율성과 다른 가치들 사이의 갈등이 불거질 경우 그 거래를 받아들일지 말지는 인간에게 달렸다. 안타깝게도 자본주의 체제에서는 개인이 이런 선택을 할 수가 없기 때문에 집단 행동이 필요하다. 이 책은 조직화된 집단의 힘으로 자신들의 삶이나 경력에 부정적인 영향을 미치는 AI의 사용을 성공적으로 막아낸 사람들의 사례를 몇 가지 소개한다.
사실 자본주의는 이 책을 관통하는 주제이기도 하다. 당연한 얘기지만 이 책에 대한 반응은 자본주의를 바라보는 독자들의 시각에 따라 크게 달라지는 듯하다. 우리는 자본주의는 필요하지만 결함 있는 체제이며, 그 체제가 만들어내는 폐해와 불평등을 최소화하려면 꾸준한 사회적 관심과 행동이 필요하다고 생각한다. 이 책에 바라는 게 있다면 그런 관심과 행동이 밑바탕을 이루는 집단 능력에 조금이라도 기여하는 것이며, 이 책이 우리와 기본적인 관점을 공유하는 독자 여러분에게 크게 공감을 불러일으킨 점에 감사할 따름이다.
자본주의에 의구심이 상대적으로 적은 독자들은, 예를 들어 노동자의 권리를 더 많이 요구하는 내용이 나오는 책의 일부를 납득하지 못하는 듯했고, 거대한 AI 기업과 언론인, 예술가, 종종 트라우마가 생길 정도로 열악한 작업 환경 아래에서 AI를 훈련하는 일을 하는 개발도상국 노동자들 사이의 엄청난 권력 불균형을 문제로 보지 않는다. 그런 불협화음은 주로 AI에 대해서가 아니라 세계관에서의 깊은 차이를 반영한다. 무엇이 정의로운 사회를 만드는가에 대한 견해가 기존의 시장 안에서 무엇이 가능한가에 좌우된다면 의미 있는 변화는 절대 기대할 수 없다.
반대로 몇몇 독자는 우리가 자본주의, 빅테크 기업들, 기타 유력한 기관 등에 그다지 비판적이지 않다고 느꼈다. 디지털 기술을 기본적으로 자본주의 사회의 억제력으로 바라보는 사람들은 급진성이 부족하다는 이유로 우리 책에 실망할 확률이 높다.
이 책에서 소개하는 이야기 속 인물들은 탐욕이 많긴 하지만, 그 대상이 개인이든, 기업이든, 기관이든 마음 편히 비난할 수 있는 악인은 없다. 예를 들어 우리는 아이러니하게도 AI 과장 광고를 더욱더 부채질할 뿐인 업계의 AI 종말론에 굉장히 비판적이긴 하지만, 이러한 주장을 지지하는 사람들 대부분이 자신의 믿음에 진심이라고 생각한다.
부정직한 AI 기업들의 더없이 뻔해 보이는 사례들에서조차 대개는 눈에 보이는 것보다 복잡한 사정이 있다. 많은 스타트업이 실제로는 자동화되지 않은, 다시 말해 사람들이 뒤에서 수작업으로 일하는 AI 제품이나 서비스를 판매하는 것으로 드러났다. 제품에 대해 거짓말하는 것은 당연히 비윤리적이며 법에도 위배된다. 하지만 그런 거짓말은 주로 이런 경로로 생겨난다. 우선 기업은 AI 제품을 생산할 돈을 끌어모으고 AI를 훈련할 사람들을 채용해 서둘러 AI 제품을 출시했다가, 뒤늦게야 AI가 웬만큼 일을 잘하기를 기대하는 건 어렵겠다는 결론에 이른다. AI를 훈련해야 할 사람들이 실제로는 서비스를 제공하는 데 동원된다는 사실이 알려지면 투자자들이 불안해할 게 뻔하기 때문에 기업은 이를 비밀에 부치기로 결심한다. 여기서 우리가 이런 이야기를 하는 목적은 뱀기름 AI를 변명하려는 게 아니라 그 전후사정을 좀 더 쉽게 이해하도록 하려는 것이다.
때로 이런 근본적인 요인들은 AI 실패 사례들이 보고되는 과정에서 명확하게 드러나지 않을 수도 있다. 에픽Epic은 결함 있는 패혈증 감지 도구를 대형 병원들에 판매한 의료 기술 회사다. 널리 알려진 정보에 따르면 책임은 전적으로 회사에 있었다. 하지만 우리는 우리 책을 읽은 한 의사로부터, 에픽은 드물게도 병원이 스스로 자사 도구를 테스트하도록 허용할 만큼 고객들에게 매우 투명하다는 소리를 들었다. 하지만 대부분의 병원은 전문지식이나 자원이 부족하기 때문에 그러지 않는다.
간단히 말해 뱀기름 AI는 대부분 각자의 이익을 추구하는 다양한 행위자들 사이의 복잡한 상호작용 때문에 생겨난다. 쉬운 해결책은 없다. 점진적인 입장과, 썩은 사과를 뿌리째 뽑아내듯 흠 있는 기관들을 철저히 개혁하거나 뒤집어엎어야 한다는 급진적 입장 사이에서 이 책은 중도를 취한다.
★ 저작권법에 의해 한국 내에서 보호를 받는 저작물이므로 무단전재와 복제를 금합니다.










