AI가 알아서 다 만들어준다는 말 — 비용 병목 앞에서 반론이 막히는 이유

AI가 도메인을 이해하고, 코드를 짜고, 심지어 책임까지 진다는 말이 요즘 SNS에 넘쳐난다. 유튜브 썸네일마다 "AI로 혼자 앱 만들기", "AI 에이전트가 개발자를 대체한다"는 문구가 붙어 있고, 링크드인엔 "바이브 코딩으로 MVP를 3일 만에"라는 포스팅이 수백 개씩 달린다.

직접 써본 사람은 안다.

10분 자리를 비우면 AI가 멈춰 있다. 승인을 기다리면서. 풀어서 한 시간 풀로 돌려도 맥스 요금제 기준으로 2~3시간이면 토큰이 소진된다. 그리고 멈춘다. 또.

이 경험이 말해주는 건 AI가 못 한다는 게 아니다. 비용이 병목이라는 거다.


토큰은 돈이다

클라우드 LLM을 쓴다는 건 요청마다 과금이 붙는다는 뜻이다. 텍스트를 읽고, 생성하고, 컨텍스트를 유지하는 모든 과정이 토큰으로 환산되고, 그게 비용이 된다.

Claude, ChatGPT, Gemini — 어느 쪽이든 구조는 같다. 무제한처럼 보이는 구독 요금제도 실제론 시간당 처리량에 상한이 있고, 그 상한을 넘으면 느려지거나 멈춘다. 맥스 요금제, Pro 요금제 할 것 없이 장시간 고강도 작업을 버티는 플랜은 현재 없다.

월 3만원짜리 요금제도 꽤 많은 사람들이 쓰기를 망설인다. 커피값도 아깝다는 사람이 있는가 하면, 써봤는데 생각만큼 안 쓰게 된다고 해지한 사람도 있다. 이건 AI를 부정해서가 아니다. 비용 대비 실감 나는 효용이 아직 모호한 영역이 많아서다.

맥스 요금제는 월 30만원 수준이다. 이걸 개인이 매달 낸다는 사람이 얼마나 될까. 그리고 회사 입장을 생각해보면 더 복잡해진다.


회사가 결제해줄까

"그럼 회사에서 결제해주면 되지 않나."

이 말이 나올 법하다. 근데 현실은 그렇게 단순하지 않다.

회사가 AI 요금제를 직원에게 결제해준다는 건, AI를 공식 업무 도구로 인정한다는 뜻이다. 그 인정이 이루어지려면 의사결정권자가 ROI를 납득해야 한다. "이걸 쓰면 얼마나 빨라지냐", "보안 이슈는 없냐", "코드 품질은 보장되냐" — 이 질문들에 답을 가진 조직이 생각보다 드물다.

그래서 실제로 AI 요금제를 팀 단위로 결제하는 곳은 한정적이다. 빅테크, 일부 스타트업, 또는 이미 AI 도입에 적극적인 소수 조직. 대다수 회사에서는 개인이 자비로 쓰거나, 아예 안 쓰거나, 무료 플랜 수준에서 머문다.

이 구조가 문제의 핵심이다. AI 자율 개발론을 설파하는 사람들은 맥스 요금제를 당연하게 쓰고 있는 환경에서 얘기한다. 그 환경을 기준으로 "이렇게 하면 된다"를 가르치는 거다. 청중 대부분이 있는 환경과 전제 자체가 다르다.


"로컬 LLM이 있잖아요"

여기서 반론이 들어온다.

"클라우드 비용이 문제면 로컬 LLM을 쓰면 되지 않나. 오픈소스 모델들도 계속 좋아지고 있고, 언젠가는 클라우드 수준에 올라온다."

틀린 말이 아니다. Llama, Mistral, Qwen — 오픈소스 모델들의 성능이 1~2년 사이에 빠르게 올라온 건 사실이다. 근데 지금 현시점에서 코딩 에이전트를 돌릴 수 있는 로컬 모델이 클라우드 수준이냐고 물으면, 정직하게 "아직"이라는 답이 나온다.

그리고 로컬 LLM을 돌리려면 하드웨어가 필요하다. 요즘 나오는 70B급 모델을 제대로 돌리려면 VRAM이 48GB 이상 필요하고, 그게 RTX 4090 두 장, 혹은 A100 한 장 수준이다. 가격으로 환산하면 수백만 원에서 시작한다. 클라우드 비용 아끼려다 하드웨어 비용이 새로운 병목으로 들어오는 구조다.

물론 양자화 기법으로 작은 모델을 돌리는 방법이 있다. RTX 4080 하나로도 어느 정도 돌아간다. 근데 그 성능이 클라우드 최신 모델 대비 어느 수준인지, 코딩 에이전트로 쓸 만한 수준인지는 솔직히 아직 격차가 있다.


"언젠가는 해결된다"는 말의 구조

이쯤에서 기술 낙관론자들의 최후 방어선이 나온다.

"지금은 그렇더라도 모델 성능은 계속 오르고, 비용은 계속 내려가고, 하드웨어도 저렴해지고 있다. 방향은 맞다. 언젠가는 다 해결된다."

이 말은 반박이 안 된다. 틀린 말이 아니니까. 실제로 GPT-4 API 비용은 2년 사이에 10분의 1 이하로 내려왔다. 모델 성능 곡선도 가파르다. 방향 자체가 틀렸다고 말하기 어렵다.

근데 이 논리 구조를 정확하게 보면 이상한 점이 있다.

2년 전에도 "언젠가는 해결된다"고 했다. 지금도 "언젠가는 해결된다"고 한다. 그 언젠가가 구체적인 날짜로 특정된 적이 없다. 6개월 후, 1년 후, 2년 후 — 항상 가까이 있는 것 같지만 도달하면 다시 앞으로 밀려난다. 이건 기술 로드맵이 아니라 지평선이다. 걸어가도 가까워지지 않는.

더 중요한 건 이거다. "언젠가 해결된다"는 전제 위에서 지금 당장 행동을 바꾸라고 요구한다는 점이다. 워크플로우를 AI 중심으로 재설계하고, 새 도구를 배우고, 프레임워크를 도입하라는 거다. 그런데 그 전제가 언제 실현될지 아무도 모른다.


그들이 실제로 팔고 있는 것

AI 자율 개발론을 설파하는 콘텐츠를 찬찬히 보면 패턴이 보인다.

현재의 솔루션을 파는 게 아니다. 미래의 기대치를 판다.

"AI가 이렇게 된다"는 전망을 현재형으로 얘기하면서, 그 전망에 대응하기 위해 지금 강의를 듣고, 책을 사고, 커뮤니티에 가입하라고 한다. 미래가 올지 안 올지와 무관하게 수익 구조는 지금 작동한다.

이게 나쁘다는 게 아니다. 기술 트렌드를 앞서 읽고 전파하는 사람들이 있어야 생태계가 움직이기도 한다. 근데 소비자 입장에서는 그게 현실 기반의 조언인지, 아니면 기대치 기반의 마케팅인지를 구분할 수 있어야 한다.

구분하는 기준은 단순하다. 비용 얘기를 꺼내봐라. 토큰 소진 얘기, 요금제 상한 얘기, 하드웨어 비용 얘기를 했을 때 구체적으로 답하는 사람과 "그건 곧 해결될 문제"로 넘기는 사람이 갈린다. 후자라면 그 사람이 파는 건 현실 솔루션이 아니다.


AI는 유용하다. 그러나.

오해하지 않길 바란다. AI 코딩 도구는 지금도 분명히 유용하다. 반복 작업을 줄이고, 생소한 라이브러리 문서를 빠르게 파악하고, 보일러플레이트를 생성하는 데 있어서 생산성 향상은 실재한다.

근데 그건 자율 에이전트가 아니라 도구로서의 유용함이다. 페어 프로그래머에 가깝고, 판단은 여전히 인간이 한다. 컨텍스트가 길어지면 품질이 흔들리고, 비용 병목이 집중 작업을 제한하고, 결과물의 책임은 여전히 쓴 사람에게 있다.

"AI가 책임진다"는 말은 지금 시점에서 틀렸다. 에러가 나도 AI에게 책임을 물을 방법이 없다. 프로덕션에서 터진 버그는 AI가 아니라 그 코드를 올린 개발자의 문제가 된다.

자율 에이전트가 완성되는 언젠가가 오더라도, 책임 구조가 바뀌기 전까지는 마찬가지일 것이다.


AI가 만능이라는 말을 조심하라는 게 아니다. 그 말이 지금 사실인지, 아니면 언젠가 사실이 될 것인지를 구분하라는 거다.

지금 비용 병목 앞에서 막히는 경험을 "내가 잘 못 써서"로 해석하지 마라. 구조적인 문제다. 그 구조를 직시하지 않는 담론은 아무리 논리적으로 포장돼도 현실과 어긋난다.

"언젠가"를 파는 사람의 말은 틀리지 않을 수 있다. 근데 그 언젠가가 당신의 지금 문제를 해결해주진 않는다.

댓글

이 블로그의 인기 게시물

개발자는 코드를 쓰는 사람이 아니다 — AI 시대에 남는 자리는 '책임'에 있다

What Is Harness Engineering — Designing the Reins for AI Agents

하네스 엔지니어링 적용편 — Anthropic은 AI 에이전트를 어떻게 설계했나