OpenAI는 왜 Sora를 잘라냈나: Sam Altman·Greg Brockman 인터뷰 (youtube.com) ↗

· · 6분 읽기
|
공유
  • 한 줄 요약. Greg Brockman이 최근 OpenAI 제품 총괄로 들어가면서 만든 새 우선순위는 세 가지. 에이전트 플랫폼, 컴퓨터 작업(computer work), Personal AGI. 이 셋에 안 맞는 건 잘라냄
  • 가장 큰 컷은 Sora. “기술 트리가 다른 가지”고 핵심 GPT 계열과 안 통일됨. 영상 모델 자체는 살리되 제품 우선순위에서 빠진 것
  • “왜 모델이 더 좋아지는데도 글쓰기는 영혼이 없는가” 같은 솔직한 질문에도 답함. Sam은 “수학자가 못 푸는 문제를 푸는 모델인데 글쓰기 못할 리 없다, 곧 나옴”이라고 자신
  • Sam이 던진 세 가지 미래 시나리오. (1) 모두 10배 부자가 되는데 트릴리어네어 10명도 같이 나오는 세상, (2) 2배 부자가 되는데 불평등은 줄어드는 세상, (3) 모두에게 컴퓨팅이 풀리는 “또 다른” 세상. Greg는 (3)에 베팅
  • 미국의 하드웨어 문제도 인정. “코드 트랙은 우리가 앞서지만 하드웨어는 망함. 로봇으로 따라잡는 길밖에 없다”
  • Bloomberg 출신 Ashley Vance·Kylie Robinson 진행. Sam과 Greg가 같이 한 첫 팟캐스트라는 사실 자체가 시그널. 둘 다 OpenAI 10년 차 공동창업자

OpenAI는 왜 지금 제품 라인을 정리했나?

  • Greg가 몇 주 전 제품 총괄로 들어감. 그 전엔 백그라운드 역할이었지만 이번엔 전면. Sam은 “회사 분위기가 달라졌다, 출시는 좀 늦어지지만 에너지가 다르다”고 표현
  • 핵심 진단. “모델이 곧 제품”이던 시대는 끝남. 이제 모델은 제품의 부품 중 하나임. 위에 얇게 깔던 소프트웨어 층이 두꺼워짐. 스킬·커넥터·컴퓨터 사용·컨텍스트·메모리 같은 게 그 두꺼운 층
  • 비유. 모델이 두뇌라면 지금은 몸을 같이 만들어야 하는 단계. 둘 다 어렵고 같이 설계해야 함
  • 그래서 우선순위 셋. 에이전트 플랫폼(개발자가 자기 에이전트를 만들 수 있는 인프라), 컴퓨터 작업(Codex를 코더 말고 모두에게 확장), Personal AGI(billion 사용자에게 각자의 맥락을 가진 AI를 줌)

Sora는 왜 잘렸나?

  • Greg의 답변. “기술 트리가 다른 가지”. Sora를 돌리는 모델이 핵심 GPT 시리즈와 통일되어 있지 않음
  • 사용 케이스도 위 세 우선순위에 안 붙음. 창의적 표현은 중요하지만 “에이전트가 컴퓨터로 일을 대신해주는” 그림과는 다른 줄기
  • 진행자가 “사실 컴퓨팅 부족 때문 아니냐”고 직격. Greg는 “모든 성공한 분야는 컴퓨팅을 많이 먹는다, 우리가 매출 머신이 있어서 컴퓨팅을 더 사올 수 있는 것”이라며 정면 부정
  • Sora 모델 자체는 다른 응용에서 살아남을 거라고 명시. 팀 작품을 죽이는 게 아니라 제품 우선순위에서 빼는 결정

살아남은 것은?

항목상태비고
Sora제품 우선순위에서 컷모델 기술은 다른 응용에 활용
자체 칩(Titan?)살아있음, 팀에 만족타임라인 비공개
데이터센터 인프라계속 확장”Stargate 축소”는 오해라고 일축
로봇”지금 단계 아님, 미래엔 핵심”ChatGPT 모먼트는 아직
소셜 로봇·소셜 네트워크안 함
Super App·브라우저진행 중내부 코드네임이 외부에 알려진 케이스
코딩 에이전트 Codex핵심”Codex를 모두에게”가 슬로건
  • “Super app”은 외부에 떠도는 catchy한 단어가 아니라 내부 약어. 빙산처럼 보이는 부분이 아니라 그 아래 있는 통합 에이전트 인프라가 본체. 진행자도 “그 단어 너희가 만든 줄 알았다”고 함

Personal AGI는 무엇인가?

  • 정의. 사용자의 맥락(취향·일·인간관계·계좌·건강)을 다 알고 사용자를 대신해 행동하는 AI. 단순 챗봇이 아님
  • 예시 시나리오. AI가 “사용자가 좋아하는 뮤지션이 마침 시내에 와서 싼 표가 떴다”는 걸 스스로 알아채고, 신뢰 수준에 따라 알아서 사거나 한 번 물어봄
  • Sam의 표현. “지금 모델은 멍청하다기보단 사용자 맥락 인식이 너무 좁다. 그래서 매번 어르고 달래며 입력해야 한다. 그게 곧 사라진다”
  • Greg는 “결국엔 언어 모델·스레드·탭 이런 디테일을 의식 안 하는 그냥 AGI 하나”라는 그림
  • 회사 입장에선 일·개인 두 맥락 모두 같은 신경망으로 풀린다는 게 핵심. enterprise vs consumer 구분이 흐려질 거라는 베팅

글쓰기는 왜 아직 영혼이 없나?

  • 진행자 Ashley Vance의 직격. “GPT-5는 글쓰기 잘할 거라더니 여전히 영혼이 없다, 뭔가 빠져있다”
  • Greg의 기술적 답변. 비지도 학습 다음에 강화학습으로 신호를 주는데 수학·과학은 채점이 쉬워서 빨리 좋아짐. 글쓰기처럼 채점이 모호한 영역은 “어느 게 좋은 글인가”를 매기는 기준 자체가 어려움
  • Sam의 답변. “10억 명이 다 좋아하는 모델 하나”를 만들기 때문에 평균에 수렴함. 진짜 해법은 개인화. 너에게 좋은 글과 다른 사람에게 좋은 글이 다른 걸 모델이 학습해야 함
  • 둘 다 “Yann LeCun이 말한 LLM 한계론”엔 동의 안 함. “수학 새 정리도 푸는데 글쓰기를 못 풀 리 없다”가 입장
  • 약속한 새 모델이 곧 나옴. 이 팟캐스트 직후 평가해 달라고 함

Sam이 그린 세 가지 미래

  • 시나리오 1. 모두 주관적으로 10배 부자가 됨. 동시에 컴퓨팅에 빨리 접근한 사람들이 트릴리어네어 10명 정도 됨. 바닥은 올라가지만 불평등도 같이 커짐
  • 시나리오 2. 모두 2배만 부자가 되는데 불평등은 줄어듦. 총 번영은 작지만 격차도 작음
  • 시나리오 3. Greg가 더 강조한 답. “컴퓨팅이 모두에게 풀리면” 1과 2 둘 다 아닌 길이 가능. AI는 컴퓨팅에 접근 가능한 사람한테만 기회임. 컴퓨팅이 풀리면 새 세대는 부모보다 컴퓨터 잘 쓰던 식으로 에이전트를 잘 쓰게 됨
  • Sam의 결론. “어떤 시나리오든 모두 더 많은 컴퓨팅, 더 싼 AI 접근권을 원해야 한다. 공급이 한정되면 결국 비싸지고 부자만 갖는다”

미국의 하드웨어 문제

  • 진행자가 “취재해보면 미국이 하드웨어로 중국 따라잡을 길이 안 보인다”고 직격
  • Sam·Greg 둘 다 동의. “코드 트랙은 우리가 앞서지만 하드웨어는 우리 망했다(hosed). 액추에이터도 못 만든다”
  • 유일한 길로 본 것. 범용 로봇. “Codex 같은 강력한 일반 로봇 두뇌가 나와서 ‘이런 로봇 더 만들어’ ‘이 광물 캐서 정제해’ 같은 명령을 받으면 판이 바뀐다”
  • 자체 로봇 프로젝트도 살아있음을 시사. 다만 “ChatGPT 모먼트는 아직 한참 멀었다”고 인정
  • 2018년 OpenAI 로봇 손 프로젝트 일화. 비디오게임에 쓰던 강화학습 알고리즘 그대로 적용했는데 힘줄 끈이 20시간마다 끊어져서 ML이 안 굴러갔음. 결국 그 팀은 GitHub Copilot 만드는 쪽으로 옮겨감

”Mythos는 사실상 공포 마케팅”

  • 진행자가 Anthropic의 Mythos(사이버 보안 강한 차세대 모델) 게이팅 발표를 어떻게 보냐 물음
  • Sam의 답. “AI를 소수 손에 두고 싶어하는 사람들이 오래 있었다. 정당한 안전 우려도 있지만 fear-based marketing이 가장 효과 좋은 정당화 방법”
  • 직접 비유. “우리가 폭탄을 만들었다. 너희 머리 위에 떨어뜨릴 거다. 1억 달러짜리 방공호를 팔겠다. 단 우리가 고른 고객한테만”
  • OpenAI의 대안. preparedness framework에 cyber 카테고리를 오래 전부터 두고, trusted access program 단계로 점진 배포하는 방식. “Mythos는 좋은 모델일 거다. 다만 우린 다른 방식으로 같은 능력을 풀 거다”
  • Anthropic이 Department of War 건으로 정부와 공개 충돌한 상황도 비판. “정부가 DPA(Defense Production Act)나 공급망 리스크 지정 같은 큰 망치를 언론에서 휘두르는 건 좋은 그림 아니다”

Personal AGI는 ChatGPT와 어떻게 다른가?

ChatGPT는 매번 사용자가 자기 맥락을 다시 입력해야 함. Personal AGI는 사용자의 일·취향·인간관계·계좌·건강 맥락을 처음부터 갖고 있어 입력 없이도 알아서 행동함. 콘서트 표를 알아서 사두는 시나리오가 대표적. 신뢰 수준에 따라 자동/확인을 구분.

Sora 컷이 OpenAI의 영상 포기 신호인가?

아니라는 게 인터뷰의 핵심. Greg는 “Sora 모델 자체는 다른 응용으로 살아남는다”고 명시. 다만 제품 라인업의 우선순위에서 빠진 것. “에이전트 플랫폼·컴퓨터 작업·Personal AGI” 셋에 집중하기 위한 정리 작업이라는 설명.

Anthropic이 OpenAI보다 코딩에서 잘했다는 인정인가?

Greg가 부분적으로 인정. “벤치마크 점수는 늘 우리가 좋았지만 messy repo 같은 실세계 데이터에 적용하는 건 Anthropic이 먼저 알아챘다.” 다만 지금 시점에서는 Codex vs Claude 직접 대결에서 OpenAI가 유리한 결과가 나온다는 입장.

1인기업 관점

가장 와 닿는 건 “Personal AGI”보다 “Codex를 모두에게” 슬로건임. 1인기업가가 매일 하는 컴퓨터 작업(견적서 만들기, 인보이스 정리, 고객 응대 메일 초안)을 코딩 비유로 풀어준 게 Codex인데, 이걸 비개발자한테까지 확장한다는 건 결국 영업·지원·사무 같은 비개발 영역의 자동화 도구가 1년 안에 풀린다는 뜻인 듯. Sora 컷보다 이 쪽이 1인기업 입장에선 훨씬 큰 신호 같고, “Codex for everyone” 출시 직후가 자기 워크플로를 한 번 갈아엎는 타이밍이 될 듯함.


관련: Karpathy: 바이브 코딩과 에이전틱 엔지니어링Standard Intelligence FDM-1: 컴퓨터 액션 모델도 같이 보면 좋습니다.

관련 글

뉴스레터 구독

매주 엄선된 1인기업 뉴스를 이메일로 받아보세요.