Claude·Copilot 비싸진 진짜 이유는 GPU 부족: t3.gg (youtube.com) ↗

|
공유
  • Theo가 Prime 영상에 대응하는 분석. 큰 그림은 동의하지만 “Anthropic과 Microsoft가 돈을 더 뽑으려고 가격을 바꾼다”는 해석은 틀렸다고 정정함
  • 최근 두 사건의 진짜 이유는 같음. Anthropic이 “Claude Code 쓰려면 더 비싼 요금제로 가라”는 가격을 띄워놓고 사람들이 어떻게 반응하는지 떠본 것(이른바 painted door 테스트, 가짜 가격표 떠보기)과 GitHub Copilot 신규 가입을 일시 중단한 것 모두 컴퓨팅 부족 신호
  • 일부 $200 Claude Max 유저가 월 $5,000어치 추론을 태우는 중. API 단가 기준으로는 명백한 손실 구간
  • 그런데 작업당 실제 비용은 빠르게 떨어지는 중. GPT-5 medium은 GPT-4 high와 같은 지능 점수를 절반 미만 가격으로 냄
  • Theo(@t3dotgg)는 풀스택 개발자 유튜버, t3.gg 운영자. 원 영상은 또 다른 인기 개발 유튜버 Prime(ThePrimeagen)의 “AI 토큰 경제가 무너지고 있다” 영상에 응답하는 형식

왜 “돈” 문제가 아니라 “컴퓨팅” 문제인가?

  • 가입 중단은 돈을 더 받겠다는 신호가 아님. 신규 유저를 안 받는 회사는 GPU가 모자란 회사
  • 2023년 OpenAI도 ChatGPT Plus 가입을 일시 중단한 적 있음. 당시 이유도 동일하게 컴퓨팅 한계
  • 두 회사의 진짜 매출원은 엔터프라이즈. 개인 구독자한테 GPU 뺏겨서 Fortune 500급 고객한테 토큰을 못 팔면 잃는 매출이 훨씬 큼
  • Anthropic이 한국 시간 새벽 시간대(PT 5~11시) 헤비 유저 한도를 더 빨리 깎기로 한 것도 같은 맥락. 업무 시간대 GPU를 비워두려는 트래픽 분산 시도

Pre-training과 Post-training은 비용 구조가 다르다

  • Prime은 “Opus 4.5에 들인 비용을 4.6과 4.7이 회수 못 했으니 손해”라고 했지만 Theo는 이걸 잘못된 비용 모델로 봄
  • pre-training(사전 학습): 모은 데이터 전체를 모델에 박아넣는 단계. 한 번에 수억에서 수십억 달러
  • post-training(사후 학습): RL이나 RLHF로 행동만 다듬는 단계. pre-training 대비 훨씬 쌈
  • Opus 4.5는 새 pre-training으로 비쌌지만 4.6과 4.7은 같은 베이스 위에 post-training만 얹었을 가능성이 높음. 그러면 회수 압박이 적음
  • Cursor의 Composer 2가 새 모델이 아니라 Kimi K2를 fine-tune한 것처럼, 모델 라벨이 바뀌어도 매번 수억 달러 사전학습은 아님

Copilot의 모델별 배수는 어디서 나오나?

  • 먼저 Copilot이 과금하는 방식. 월 $40 플랜은 한 달에 메시지 1,500개를 줌. 한 메시지가 한 번 호출. 그런데 모델마다 메시지를 1배, 7.5배, 15배로 차감하는 “배수”가 붙어 있음
  • 실제 배수: GPT-4는 1x, GPT-5는 7.5x, Opus는 15x. GPT-5로 100번 쓰면 메시지 750개가 사라지는 식
  • 그런데 GPT-5의 토큰당 단가는 GPT-4의 2배 정도밖에 안 됨. 같은 작업을 끝까지 시키면 GPT-5가 오히려 더 쌀 때도 많음. 그럼 7.5배라는 숫자는 어디서 옴?
  • 답은 컴퓨팅 할당량(provisioning). GPT-5 추론에 배정된 GPU 클러스터가 적고, 그 자원은 엔터프라이즈 고객한테 비싸게 팔 수 있음
  • 7.5배는 “이 모델이 비싸서”가 아니라 “$40 짜리 개인 유저가 GPT-5로 몰리지 말아달라”는 신호로 읽어야 한다는 지적

Google은 보조금 안 한다? 사실 가장 많이 함

  • Prime은 “Google은 돈이 많아서 보조금 태울 필요 없음”이라고 했지만 Theo는 정반대로 봄
  • 검색 결과의 AI Overview를 비로그인 incognito 상태에서도 무료로 돌리는 중. 이게 단연 최대 규모 무료 컴퓨팅 살포
  • Anti-gravity(Google IDE)에 Opus 4.5를 무료로 끼워 넣었다가 사용량 추적 플러그인 만든 사람까지 밴할 정도로 빠르게 회수
  • 자체 TPU 부족으로 일부 추론을 CPU로 돌린다는 소문까지 있음. Google이 가장 컴퓨팅 압박이 크다는 신호

모델 가격은 어떻게 봐야 하나? (마트 비유)

  • 마트에서 포도를 한 알에 100원, 한 알에 200원으로 비교하는 게 토큰당 단가 보는 방식. 그런데 진짜 비용은 “내가 사려는 한 송이 무게 × 단가”임
  • AI 모델도 같음. 토큰 한 개 가격은 GPT-5가 GPT-4의 2배지만, 같은 작업을 끝낼 때 쓰는 토큰 수는 GPT-5가 훨씬 적음
  • 결과적으로 한 작업을 끝까지 돌리면 GPT-5가 GPT-4보다 더 쌀 때가 많음
  • artificial analysis intelligence index가 측정한 동일 작업 처리 비용 비교
모델지능 점수작업 한 번 처리 비용작업당 토큰 사용량
GPT-4 high57$2,850120M
GPT-5 high60$3,35075M
GPT-5 medium57 (GPT-4 high와 동급)$1,20022M
GPT-5 low51$5007M
Sonnet 4.6 max-(더 비쌈)200M
Opus-$5,300110M
  • GPT-5 medium은 GPT-4 high와 사실상 같은 지능을 절반 미만 가격으로 냄
  • GPT-5 low는 Claude Sonnet 4.6 수준 지능을 1/6 가격으로 냄
  • 즉 프론티어(가장 똑똑한 모델)는 점점 비싸지만, “이 정도면 충분한 수준”의 지능 가격은 빠르게 빠지는 중

$20 Claude Pro나 $200 Max로 업무용 코딩해도 되나?

공식적으로는 안 됨. Anthropic Consumer Terms는 “ordinary individual usage”만 허용하고 회사 도메인 이메일로 가입하면 엔터프라이즈로 자동 연결될 수 있다고 명시. ZDR(zero data retention)과 BAA(HIPAA용)도 엔터프라이즈 계약에서만 가능. 데이터를 학습에 안 쓴다는 보장도 구독 등급에선 약함.

토큰당 가격과 작업당 비용은 왜 다른가?

같은 일을 시켜도 모델마다 사용하는 토큰 수가 다름. Sonnet 4.6은 200M 토큰을 쓰고 GPT-5 low는 7M 토큰을 쓰는데 점수는 비슷할 수 있음. 토큰당 단가만 보면 GPT-5가 비싸 보여도 작업이 끝날 때까지의 총 비용은 더 쌀 수 있음.

보조금 시대는 정말 끝나는 건가?

완전히 끝나진 않지만 좁아지는 중. 컴퓨팅 자체가 부족해서 어쩔 수 없이 줄이는 흐름. 다만 같은 지능 수준의 가격은 계속 빠지기 때문에 “더 비싼 구독을 사야 한다”기보다 “어떤 작업에 어떤 모델을 쓸지 라우팅을 잘 짜야 한다”가 진짜 답에 가까움.

1인기업 관점

결국 컴퓨팅이 진짜 병목이면 솔로 운영자도 로컬 모델 셋업 한 번쯤 만져두는 게 보험인 듯. 요즘 M3·M4 맥북 정도면 Ollama로 30B급 오픈소스 모델 충분히 돌아감. Claude·GPT가 하던 일을 다 대체하진 못해도 분류·요약·자잘한 코드 정도는 충분하고, 메인 모델이 rate limit 걸렸을 때 흐름 안 끊기게 받아주는 용도로는 쓸 만함.


관련: Claude Max 혜자가 끝난다: Mythos와 토큰 과금 시대Replit CEO 인터뷰: 코딩 AI 단가는 왜 안 떨어지나도 같이 보면 좋습니다.

관련 글

뉴스레터 구독

매주 엄선된 1인기업 뉴스를 이메일로 받아보세요.