시리즈: ChatGPT 기술 제품 조직 (총 12편) | 7회
3년이 만든 놀라운 변화: 기술·제품·조직이 맞물린 방식
ChatGPT가 3년 만에 대화 앱에서 에이전트 플랫폼으로 진화한 건 우연이 아니야. 이 글에서는 기술 발전사, 제품 진화, 조직 역사를 교차해서 읽었을 때 보이는 4가지 숨겨진 패턴을 정리해줄게.
Summary
- 모델의 스케일→정렬→멀티모달 흐름이 제품에서 툴 결합→음성/이미지→에이전트 순으로 그대로 구현됐어
- Microsoft Azure 독점 파트너십(2019)이 없었다면 GPT-3(175B)도, GPT-4도 없었을 거야
- 거버넌스 위기(2023 리더십 사태)는 갑작스러운 사고가 아니라 LP 전환 이후 누적된 구조적 긴장의 폭발이었어
- Plugins→함수 호출→Responses API로 이어지는 흐름은 ChatGPT 내부 기능 확장이면서 동시에 외부 개발자를 위한 에이전트 표준이 됐어
이 글의 대상
- 기술 발전사, 제품 진화, 조직 역사를 따로 읽고 “이게 어떻게 연결되지?”라고 궁금했던 사람
- OpenAI의 전략적 선택들이 우발적인지 의도적인지 판단하고 싶은 사람
- AI 플랫폼 경쟁을 구조적으로 이해하고 싶은 개발자·기획자·투자자
목차
- 패턴 1: 스케일→정렬→플랫폼화, 기술 로드맵이 제품으로 번역된 방식
- 패턴 2: 자본이 스케일을 만들고, 스케일이 제품을 만든 고리
- 패턴 3: 거버넌스 위기는 왜 그 시점에 터졌나
- 패턴 4: API 진화가 ChatGPT를 에이전트 플랫폼으로 만든 과정
- 핵심 인용으로 읽는 3년의 흐름
1. 패턴 1: 스케일→정렬→플랫폼화, 기술 로드맵이 제품으로 번역된 방식
기술과 제품이 각자 따로 달린 게 아니라, 기술 로드맵이 제품 로드맵의 청사진이었어.
모델 발전사를 보면 크게 세 단계가 있어. GPT-2/3 시절의 스케일 단계, RLHF와 InstructGPT로 대표되는 정렬(alignment) 단계, 그리고 GPT-4 이후의 멀티모달 단계야.
이게 제품에서 어떻게 나타났냐면—
| 기술 단계 | 핵심 사건 | 제품 구현 |
|---|---|---|
| 스케일(GPT-2/3) | 파라미터 규모 확장 | API 공개, 개발자 생태계 형성 |
| 정렬(RLHF/InstructGPT) | 인간 피드백 학습 | ChatGPT 대화 UX, 지시 따르기 |
| 멀티모달(GPT-4) | 이미지·언어 통합 | 음성 모드, 이미지 입력, GPT-4V |
| 플랫폼화 | 툴·외부 연결 | Plugins, 코드 실행, 브라우징, Memory, GPTs, 스토어 |
정렬 기술이 없었다면 ChatGPT의 “사람처럼 대화하는” 경험 자체가 불가능했어. RLHF가 모델을 “지시에 따르게” 만들었고, 그게 대화 앱을 가능케 한 거거든. 마찬가지로 멀티모달 연구가 먼저 진전되지 않았다면 음성 모드나 이미지 입력 기능이 제품으로 나올 수 없었어.
기술 로드맵 = 제품 로드맵의 1~2년 전 버전이라는 거야.
2. 패턴 2: 자본이 스케일을 만들고, 스케일이 제품을 만든 고리
2019년 Microsoft Azure 독점 파트너십은 단순한 자금 조달이 아니었어. 초대형 모델 학습을 가능케 한 컴퓨팅 인프라 계약이었거든.
GPT-3의 파라미터 수는 175B(1750억 개)야. 이 규모의 모델을 학습하려면 일반 클라우드로는 한계가 있어. Azure의 AI 슈퍼컴퓨팅 인프라가 이걸 받쳐준 거야. 2023년 GPT-4도 마찬가지야—Azure 없이는 학습 자체가 불가능했을 거야.
흐름을 정리하면 이렇게 돼:
2019: Microsoft Azure 독점 파트너십 체결
↓
2020: GPT-3 (175B 파라미터) 학습 가능
↓
2022.11: ChatGPT 출시 → 1억 MAU 돌파
↓
2023: GPT-4 출시 + Microsoft 추가 투자 (100억 달러 추정)
이게 중요한 이유가 있어. 자본→인프라→스케일→제품→수익→자본으로 이어지는 피드백 루프가 형성됐거든. ChatGPT가 돈을 벌기 시작하면서 OpenAI는 더 큰 모델을 학습할 자본을 확보하고, 그게 또 더 좋은 제품으로 이어지는 구조야.
단, 이 구조에는 의존성이라는 그림자도 있어. Azure 파트너십은 OpenAI의 독립성을 제약하는 요소이기도 하고, 2023 리더십 위기 때도 Microsoft의 개입이 주요 변수가 됐거든.
3. 패턴 3: 거버넌스 위기는 왜 그 시점에 터졌나
2023년 11월 OpenAI 이사회의 샘 알트만 해임 시도는 갑작스럽게 보였지만, 사실 2019년부터 누적된 구조적 긴장의 결과야.
타임라인을 보면 패턴이 보여:
| 연도 | 사건 | 긴장의 성격 |
|---|---|---|
| 2019 | LP(영리 자회사) 전환 | 안전 우선 vs 상용화 속도 |
| 2022.11 | ChatGPT 출시, 폭발적 성장 | 제품 속도 vs 안전 검토 |
| 2023.11 | 이사회 vs 알트만 충돌 | 거버넌스 vs 성장 드라이브 |
| 2024.03 | 이사회 검토 완료, 알트만 복귀 | 긴장의 제도적 봉합 |
2019년 LP 전환은 외부 자본을 받기 위한 구조였는데, 이게 “안전과 인류의 이익”을 내세운 비영리 정신과 “투자 수익”을 기대하는 영리 논리 사이의 긴장을 법적으로 내재화한 거야. ChatGPT 출시 이후 상용화가 폭발하면서 이 긴장이 조직 최상층의 충돌로 터진 거고.
중요한 건 이 긴장이 해소된 게 아니라 봉합됐다는 점이야. “리더십 위기 후 알트만이 복귀했으니 끝”이 아니라, 안전·속도·지배구조라는 세 축의 긴장은 지금도 진행 중이야.
4. 패턴 4: API 진화가 ChatGPT를 에이전트 플랫폼으로 만든 과정
가장 과소평가된 패턴이 이거야. ChatGPT 내부 기능 추가와 외부 API 진화가 같은 방향으로 움직이면서 에이전트 생태계를 만들었어.
2023년 3월 Plugins 출시 때 ChatGPT에 처음으로 “외부 세계와 연결”하는 기능이 생겼어. 브라우징, 코드 실행, 써드파티 플러그인. 같은 해 6월, OpenAI는 API에 함수 호출(Function Calling)을 추가했어. 개발자가 함수를 기술해주면 모델이 언제 어떤 함수를 호출할지 스스로 판단하는 거야.
이 두 사건은 겉으로 보면 별개지만 사실 같은 방향을 가리켜:
- ChatGPT Plugins = 대화 UI 안에서 외부 도구 실행
- Function Calling = API를 통해 외부 개발자가 같은 패턴 구현
그리고 2024년 이후 Responses API로 이어지면서 이 패턴이 완성돼. Responses API는 단순한 API 업그레이드가 아니라 “에이전트 루프”를 API 레벨에서 지원하는 구조야. 모델의 추론 상태가 여러 턴에 걸쳐 보존되는 거거든.
Plugins (2023.03) → Function Calling (2023.06) → GPTs (2023.11) → Responses API (2025~)
↑ ↑ ↑ ↑
ChatGPT 내부 API 표준화 개인화/배포 에이전트 루프
ChatGPT가 “채팅 앱”에서 “에이전트 플랫폼”으로 바뀐 건 선언이 아니라 이 API 진화의 누적이었어.
5. 핵심 인용으로 읽는 3년의 흐름
리서치를 하면서 발견한 인용들인데, 각각이 위의 4가지 패턴 중 하나를 정확하게 포착하고 있어.
스케일의 출발점 — GPT-2의 완전 공개 (2019)
“As the final model release of GPT‑2’s staged release, we’re releasing the largest version (1.5B parameters) of GPT‑2 along with code and model weights…”
— OpenAI
처음엔 위험하다고 단계적으로 공개했다가 결국 전체를 공개한 거야. ‘공개 방식이 안전 전략’이라는 OpenAI의 논리가 이때부터 실험되기 시작했어.
정렬 기술의 실용화 — 함수 호출 (2023)
“Developers can now describe functions to gpt-4-0613 and gpt-3.5-turbo-0613, and have the model intelligently choose to output a JSON object containing arguments to call those functions.”
— OpenAI (2023-06-13)
“지시에 따르게” 만드는 정렬 기술이 개발자 도구로 전환된 순간이야. 여기서 에이전트 생태계의 씨앗이 뿌려진 거거든.
에이전트 시대의 선언 — Responses API
“/v1/responses is an agentic loop…Responses preserves the model’s reasoning state across those turns.”
— OpenAI Developers Blog
단순한 요청-응답(Completions)에서 상태를 유지하는 루프(Responses)로의 전환. 모델이 “한 번 답하는 것”이 아니라 “여러 단계를 거쳐 실행하는 것”으로 패러다임이 바뀐 거야.
안전 접근법의 진화 — Red Teaming
“Red teaming means using people or AI to explore a new system’s potential risks in a structured way.”
— OpenAI
이게 중요한 이유는 GPT-2 때의 “단계적 공개”가 GPT-4 때는 “구조적 위험 탐색”으로 진화했다는 거야. 안전 접근법이 ad hoc에서 체계적인 방법론으로 발전한 흐름이 여기 담겨 있어.
핵심 정리
1. 기술 로드맵(스케일→정렬→멀티모달)이 1~2년 시차를 두고 제품 로드맵으로 구현됐다
2. Microsoft Azure 파트너십(2019)이 GPT-3, GPT-4 같은 초대형 모델의 실질적 기반이었다
3. 2023 리더십 위기는 LP 전환(2019)으로 내재화된 안전 vs 상용화 긴장의 누적 결과다
4. Plugins→함수 호출→Responses API 흐름은 ChatGPT를 에이전트 플랫폼으로 전환한 핵심 경로다
5. 핵심 인용들은 공개 방식(GPT-2) → 도구화(함수 호출) → 에이전트화(Responses API)의 진화를 포착한다
FAQ
Q. 기술 로드맵이 제품 로드맵을 결정한다면, 지금 어떤 기술이 다음 제품을 예고하고 있나?
A. 현재 연구 최전선에 있는 주제들이 힌트야. 추론 능력 강화(o1/o3 계열), 장기 메모리, 멀티에이전트 협력 연구가 진행 중인데, 이게 1~2년 내 제품으로 나올 가능성이 높아. 패턴을 믿는다면 “추론 중심 에이전트”가 다음 제품 단계일 거야.
Q. Microsoft 의존이 OpenAI의 전략적 약점이 될 수 있나?
A. 가능성이 있어. Azure 독점 계약은 컴퓨팅 비용을 낮추고 스케일을 가능케 하지만, OpenAI의 클라우드 선택지를 제한하고 Microsoft의 이해관계가 OpenAI 의사결정에 영향을 줄 수 있는 구조야. 실제로 2023 리더십 위기 때 Microsoft가 영향력을 행사했다는 점이 이 관계의 성격을 잘 보여줘.
Q. LP 전환이 없었으면 ChatGPT가 출시되지 않았을까?
A. 그렇게 단언하기는 어렵지만, 외부 자본 없이는 GPT-3 수준의 스케일 확보가 훨씬 늦어졌을 거야. LP 전환은 투자자 자본을 받기 위한 구조였고, 그 자본이 Azure 파트너십과 결합해 초대형 모델 학습을 가능하게 했어. ChatGPT는 GPT-3.5 기반이었으니, LP 전환이 없었다면 ChatGPT의 출시도 최소 수년은 늦어졌겠지.
Q. Function Calling이 에이전트 발전에서 그렇게 중요한 이유가 뭐야?
A. 모델이 “언제 어떤 도구를 쓸지”를 스스로 판단하게 만드는 첫 번째 공식 메커니즘이었거든. 이전까지는 개발자가 모든 도구 호출 로직을 직접 짜야 했어. 함수 호출 이후 모델이 계획-실행의 일부를 담당하게 됐고, 이게 에이전트의 핵심 능력이야.
Q. Responses API와 기존 Completions API의 실질적 차이는?
A. Completions는 한 번의 요청에 한 번의 응답. Responses는 모델이 여러 단계를 거치면서 상태를 유지해. 예를 들어 “웹 검색 후 코드 작성 후 실행 후 결과 분석”을 하나의 루프로 처리할 수 있어. 단순 Q&A와 멀티스텝 에이전트의 차이야.
Q. 2023 리더십 위기 이후 거버넌스가 실질적으로 바뀌었나?
A. 이사회 구성이 바뀌었고, 공식적으로는 “검토 완료” 선언을 했어. 하지만 안전 vs 속도 갈등의 근본 구조가 해소된 건 아니야. 알트만이 복귀하고 영리 전환 논의가 계속되는 걸 보면 긴장은 봉합됐을 뿐 해결은 아직이야.
Q. ChatGPT GPTs와 외부 개발자 API는 결국 같은 생태계를 목표로 했나?
A. 그렇게 볼 수 있어. GPTs는 코딩 없이 ChatGPT 앱을 커스터마이징하는 도구고, API는 개발자가 완전한 제어권을 갖는 도구야. 둘 다 “OpenAI 모델을 활용한 에이전트/앱 생태계”라는 같은 방향을 가리켜. GPT 스토어는 앱스토어 모델을 노린 거고, API는 플랫폼 개발자 생태계를 노린 거야.
Q. GPT-2 때의 “단계적 공개” 전략이 지금도 유효한가?
A. 형태는 바뀌었지만 정신은 이어져. 지금은 단계적 공개보다는 Red Teaming, 사용 정책, 모니터링 시스템 같은 더 체계적인 안전 메커니즘이 사용돼. “공개 방식이 안전 전략”이라는 논리 자체는 여전히 OpenAI의 핵심 접근법이야.
Q. 이 4가지 패턴 중 가장 간과된 게 어느 거야?
A. API 진화 패턴(패턴 4)이 가장 많이 간과돼. 대부분 ChatGPT의 사용자 수나 UI 기능에 집중하는데, 실제로 에이전트 생태계의 기반이 된 건 함수 호출과 Responses API 같은 개발자 도구의 진화야. 제품의 겉모습보다 API 구조의 변화를 추적하면 OpenAI의 전략 방향이 더 선명하게 보여.
참고 자료 (References)
데이터 출처
| 출처 | 설명 | 링크 |
|---|---|---|
| OpenAI LP 발표 | 2019년 영리 자회사 전환 공식 발표 | OpenAI LP 공식 발표 |
| Microsoft 파트너십 | 2019년 Azure 독점 컴퓨팅 파트너십 발표 | Microsoft Azure 파트너십 발표 |
| Function Calling 발표 | 2023년 6월 함수 호출 기능 API 추가 | Function calling 도입 발표 |
| Responses API 마이그레이션 가이드 | Completions → Responses 전환 가이드 | Responses API 마이그레이션 가이드 |
| 이사회 검토 완료 발표 | 2024년 3월 알트만 복귀 공식 확인 | 이사회 검토 완료 공식 발표 |
| Greg Brockman (X/Twitter) | 출시 5일 만에 100만 사용자 달성 언급 | Greg Brockman X 게시물 |
| The Guardian | ChatGPT 2개월 만에 1억 사용자 도달 보도 | Guardian 보도 |
| InstructGPT 논문 (arXiv) | RLHF 기반 정렬 기술, 1.3B 모델이 175B GPT-3보다 선호도 높음 입증 | InstructGPT 논문 |
핵심 인용
“/v1/responses is an agentic loop…Responses preserves the model’s reasoning state across those turns.”
— OpenAI Developers Blog“Developers can now describe functions to gpt-4-0613 and gpt-3.5-turbo-0613, and have the model intelligently choose to output a JSON object containing arguments to call those functions.”
— OpenAI (2023-06-13)“As the final model release of GPT‑2’s staged release, we’re releasing the largest version (1.5B parameters) of GPT‑2 along with code and model weights…”
— OpenAI“Red teaming means using people or AI to explore a new system’s potential risks in a structured way.”
— OpenAI
다음 편 예고
[8편] 풀리지 않은 질문들과 미래
- ① RLHF 이후 다음 정렬 방법론은 어디로 가나
- ② 에이전트 생태계 품질·안전·수익 표준화 과제
- ③ WilmerHale 보고서 결론이 OpenAI 거버넌스에 갖는 의미
- ④ 저작권 소송이 데이터 거버넌스에 미치는 영향
- ⑤ Responses API 전환이 기업에 묻는 것
'AI' 카테고리의 다른 글
| 흩어진 퍼즐 조각 맞추기 — API·안전·바이럴의 교차점 — ChatGPT 기술 제품 조직 9/12 (0) | 2026.02.09 |
|---|---|
| ChatGPT 플랫폼 이후, 아직 답 없는 5가지 핵심 질문 — ChatGPT 기술 제품 조직 8/12 (0) | 2026.02.09 |
| ChatGPT를 둘러싼 세 가지 큰 논쟁: API 전쟁, 안전 딜레마, 대중화의 이면 — ChatGPT 기술 제품 조직 6/12 (0) | 2026.02.09 |
| ChatGPT를 이해하는 기술 배경 — API·RLHF·안전 정책의 흐름 — ChatGPT 기술 제품 조직 5/12 (0) | 2026.02.09 |
| 투명성이 OpenAI의 안전 전략이 된 이유 — 규제보다 먼저 움직인 공개 방식 — ChatGPT 기술 제품 조직 4/12 (0) | 2026.02.09 |
