시리즈: ChatGPT 기술 제품 조직 (총 12편) | 2회
비영리 실험실이 거대 기업이 된 과정 — OpenAI 설립부터 GPT-4까지
“인류 전체의 이익”을 내걸고 출발한 비영리 연구소가 어떻게 마이크로소프트와 손잡은 수십조 원짜리 AI 기업이 됐는지, 설립(2015)부터 GPT-4(2023)까지 8년의 흐름을 조직·기술 두 축으로 풀어봤어.
Summary
- OpenAI는 2015년 비영리로 출발했지만, 2019년 capped-profit 구조로 전환해 대규모 자본을 끌어들였어
- GPT-1에서 GPT-4까지 각 버전은 단순한 업그레이드가 아니라 “AI를 어떻게 쓸 것인가”에 대한 관점 변화를 담고 있어
- 2023년 11월 리더십 위기는 “안전 vs 속도” 긴장이 거버넌스 문제로 터진 사건이었어
- ChatGPT가 대중 제품이 될 수 있었던 핵심은 RLHF 기반의 InstructGPT에 있어
이 글의 대상
- OpenAI가 어떤 조직인지 좀 더 깊게 알고 싶은 사람
- GPT 버전별 차이가 궁금했던 사람
- ChatGPT 뒤에 어떤 기술 흐름이 있는지 이해하고 싶은 개발자·기획자
- AI 산업 지형 전반을 공부 중인 사람
목차
- OpenAI의 출발: “인류 전체의 이익”이라는 구호
- 헌장(Charter)으로 원칙을 못 박다(2018)
- 영리법인 전환: capped-profit의 탄생(2019)
- Microsoft와의 인프라 동맹(2019~2023)
- 2023년 11월 위기, 그리고 결론
- GPT 기술 계보: 스케일에서 정렬까지
- InstructGPT: ChatGPT를 가능케 한 전환점
- GPT-4: 멀티모달과 “출시=문서” 시대
1. OpenAI의 출발: “인류 전체의 이익”이라는 구호
2015년 12월, OpenAI는 비영리 AI 연구기관으로 문을 열었어. 설립 발표에는 공동 창립자들과 함께 약 10억 달러 기부 약정이 언급됐고, 핵심 목표는 딱 하나였지 — “AGI(범용인공지능)가 인류 전체에 이익이 되도록.”
이 구호, 지금 들으면 뻔해 보이지만 당시엔 꽤 도발적이었어. 구글·페이스북·아마존 같은 빅테크가 AI를 내부 역량으로 쌓고 있던 시절에, 연구를 공개하고 협력하겠다는 비영리 연구소가 등장한 거거든. 초창기 OpenAI의 정체성은 ‘연구 공개’와 ‘협력’에 가까웠어.
이 출발점이 중요한 이유는 하나야. 이후 OpenAI가 상용화를 확대할 때마다 이 구호가 비교 기준이 됐거든. “그 미션이랑 지금이랑 맞냐?”는 질문이 반복적으로 나왔어.
2. 헌장으로 원칙을 못 박다
2018년, OpenAI는 OpenAI Charter를 공개했어. 구호를 문서로 못 박은 거야.
Charter에는 세 가지 핵심 원칙이 담겼어:
| 원칙 | 내용 |
|---|---|
| 이익의 광범위한 분배 | 소수가 아닌 인류 전체에 AGI 혜택이 돌아가야 해 |
| 장기 안전 우선 | 경쟁 압박이 있어도 안전을 절충하지 않아 |
| 경쟁보다 협력 | AGI 근접 시 다른 연구 기관과 협력 추구 |
근데 이 Charter가 단순한 선언문이 아니었어. 이후 OpenAI가 조직 구조를 바꾸거나 대형 파트너십을 맺을 때마다 “Charter에 부합한다”는 근거 문서로 활용됐거든. 기술 로드맵뿐 아니라 조직 로드맵에도 기준점을 준 셈이야.
3. 영리법인 전환: capped-profit의 탄생
2019년 3월, OpenAI는 OpenAI LP를 발표했어. 표면적으로는 영리 전환이지만, 구조가 좀 독특해.
- 비영리가 지배권 유지: 이사회 구조상 비영리 모기업이 최종 통제권을 가져
- 수익 상한(capped-profit): 투자자 수익을 일정 배수로 제한해
- 목적: 대규모 채용, 연구, 서비스 운영에 필요한 자본을 끌어들이기 위해서야
쉽게 말하면, 완전한 영리 기업도 아니고 그렇다고 순수 비영리도 아닌 절충 구조야. OpenAI는 이걸 “미션과 자본의 균형”이라고 설명했어.
이 전환이 중요한 이유는 하나야 — 이게 없었으면 ChatGPT 같은 대규모 서비스가 불가능했어. GPT-4 하나 학습시키는 데 드는 컴퓨팅 비용을 비영리 기부금으로 충당할 수 없거든.
4. Microsoft와의 인프라 동맹
2019년 7월, Microsoft는 OpenAI에 10억 달러를 투자하고 Azure 독점 컴퓨팅 파트너십을 체결했어. 그리고 2023년 1월에는 “다년·다수십억 달러” 규모로 파트너십을 대폭 확대했지.
근데 이 동맹의 핵심은 돈이 아니야. 진짜 핵심은 학습·서빙 인프라야.
GPT-3(175B 파라미터)나 GPT-4 같은 모델은 대학 연구실에서 GPU 몇 개 돌려서 만드는 게 아니야. 슈퍼컴퓨팅 클러스터, 24시간 운영 인프라, 수백만 사용자 동시 서빙 역량이 다 필요해. OpenAI는 Azure를 통해 이걸 확보한 거야.
2019년 7월: Microsoft → OpenAI 10억 달러 투자 + Azure 독점 파트너십 체결
2023년 1월: "다년·다수십억 달러" 규모 파트너십 확대
지금 ChatGPT를 쓸 때 뒤에서 돌아가는 게 Azure라는 거, 이 맥락을 알면 당연하게 느껴지지.
5. 2023년 11월 위기, 그리고 결론
2023년 11월, OpenAI 이사회는 갑자기 Sam Altman을 해임했어. 며칠 만에 복귀하긴 했지만, 이 사건은 거버넌스 리스크를 전 세계에 공개적으로 폭발시켰어.
왜 중요했냐면, 단순한 인사 갈등이 아니었거든. 표면 아래에는 두 가지 긴장이 있었어:
- 안전 vs 속도: 더 빠른 제품 출시를 원하는 쪽 vs 안전을 먼저 챙겨야 한다는 쪽
- 비영리 미션 vs 상업적 확장: OpenAI가 Charter의 정신을 지키고 있냐는 질문
결론은? 2024년 3월, OpenAI는 WilmerHale의 검토 완료를 발표하며 “Altman과 Brockman이 계속 리드한다”는 공식 결론을 냈어.
이 사건 이후로 OpenAI의 제품 공개 방식과 정책이 더 ‘문서화’되고 제도화됐어. 거버넌스 위기가 아이러니하게도 조직을 더 체계적으로 만든 거야.
6. GPT 기술 계보: 스케일에서 정렬까지
조직 얘기를 했으니 이제 기술 얘기야. GPT-1부터 GPT-4까지, 각 버전은 단순 업그레이드가 아니라 “AI를 어떻게 봐야 하나”에 대한 관점 변화를 담고 있어.
GPT 계열의 기반: 트랜스포머
GPT는 트랜스포머 구조를 기반으로 “다음 토큰 예측”을 대규모로 수행하는 언어 모델이야. 트랜스포머는 병렬 처리에 유리해서 대규모 학습이 가능하고, GPT는 이 확장성을 극단까지 밀어붙였어.
GPT 버전별 핵심 변화
| 버전 | 연도 | 파라미터 | 핵심 관점 변화 |
|---|---|---|---|
| GPT-1 | 2018 | ~117M | 사전학습+미세조정 파이프라인 정착 |
| GPT-2 | 2019 | 1.5B | 제로샷 가능성 + 배포 전략의 중요성 |
| GPT-3 | 2020 | 175B | 인컨텍스트 학습 대중화, 하지만 한계도 명확 |
| InstructGPT | 2022 | 1.3B~175B | 성능 정의를 ‘벤치마크’에서 ‘사용자 선호’로 전환 |
| GPT-4 | 2023 | 비공개 | 멀티모달 + “출시=문서화” 표준 |
GPT-1(2018): 전이학습의 출발점
GPT-1은 비지도 사전학습 후 태스크별 미세조정을 하는 전이학습 파이프라인을 언어 생성 모델로 정착시켰어. 지금은 당연하게 들리지만, 당시엔 “대형 언어모델을 범용 엔진으로 쓴다”는 관점 자체가 자연스럽지 않았거든.
GPT-2(2019): 배포 전략이 기술만큼 중요해진 순간
GPT-2는 1.5B 파라미터로 스케일을 키우며 제로샷·소수샷의 가능성을 보여줬어. 근데 더 흥미로운 건 배포 방식이야. OpenAI는 “악용 위험”을 이유로 즉시 전면 공개 대신 단계적 공개를 택했어. 이게 이후 “모델을 어떻게 배포할 것인가”가 기술만큼 중요해졌다는 신호였어.
GPT-3(2020): 175B와 인컨텍스트 학습
GPT-3는 175B 파라미터로 당시 기준 압도적 스케일이었고, ‘few-shot learners’를 전면에 내세웠어. 핵심은 인컨텍스트 학습 — 파라미터를 업데이트하지 않아도 프롬프트에 예시 몇 개를 주면 즉석에서 과제를 수행하는 능력이야.
하지만 약점도 분명했어:
- 환각(hallucination): 그럴듯한 거짓말을 자신있게 생성해
- 수학·논리 추론 불안정: 계산이나 다단계 논리에서 자주 틀려
- 검증 어려움: 뭘 알고 뭘 모르는지 구분하기 어려워
“대형화만으로 해결되지 않는 문제”가 있다는 걸 GPT-3가 보여준 거야.
7. InstructGPT: ChatGPT를 가능케 한 전환점
GPT-3의 한계를 돌파한 건 더 큰 모델이 아니었어. RLHF(인간 피드백 기반 강화학습)였어.
2022년 공개된 InstructGPT는 이 방식을 체계화했어. 프로세스는 이렇게 돼:
- 사람이 “좋은 응답”의 예시를 만들어 지도학습
- 사람 평가자들이 여러 응답 중 어떤 게 더 나은지 순위 매기기
- 이 순위 데이터로 보상 모델 학습
- 보상 모델을 기준으로 강화학습
결과가 상징적이었어. 1.3B 파라미터 InstructGPT가 175B GPT-3보다 사람 선호 평가에서 더 높게 나왔거든. 파라미터가 100배 이상 적은 모델이 이긴 거야.
“성능의 정의가 ‘벤치마크 점수’에서 ‘사용자가 원하는 답을 주는 능력’으로 옮겨간 순간이었어.”
이게 왜 중요하냐고? ChatGPT가 일반 사람들이 쓸 수 있는 제품이 된 기술적 전제가 여기서 마련됐거든. 벤치마크에서 잘하는 모델이 아니라 대화가 통하는 모델을 만들 수 있게 된 거야.
8. GPT-4: 멀티모달과 “출시=문서” 시대
2023년 3월 공개된 GPT-4는 두 가지가 달랐어.
첫째, 멀티모달. 텍스트만 받던 이전 모델과 달리 이미지 입력도 받을 수 있게 됐어. 사진을 보여주고 “이게 뭐야?”라고 묻거나, 그래프 이미지로 데이터를 분석하는 게 가능해진 거야.
둘째, “출시=문서화” 표준 강화. GPT-4는 Technical Report와 함께 시스템 카드(System Card)가 같이 공개됐어. 시스템 카드에는 어떤 안전 위험이 있는지, 어떻게 완화했는지가 담겨 있어.
이 시점부터 OpenAI에서 모델 출시는 단순 제품 릴리즈가 아니야. 모델+문서+규제 대응이 한 패키지가 됐어. “얼마나 잘 만드냐”와 “어떻게 안전하게 내놓냐”가 사실상 같은 프로젝트가 된 거지.
핵심 정리
1. OpenAI는 2015년 비영리로 출발했지만 2019년 capped-profit 구조로 전환 —
비영리 지배권 유지 + 투자 수익 상한이라는 절충 모델이야
2. Microsoft와의 파트너십(2019, 2023)은 단순 투자가 아니라
대규모 학습·서빙에 필요한 Azure 인프라 확보가 핵심이었어
3. GPT-1 → GPT-3까지는 스케일 확장이 중심이었지만,
GPT-3의 환각·추론 한계로 "크기=성능"의 등식이 흔들렸어
4. InstructGPT(2022)의 RLHF가 성능 정의를 바꿨어 —
벤치마크가 아니라 '사람이 원하는 답'이 기준이 된 순간이야
5. 2023년 11월 리더십 위기는 안전 vs 속도, 비영리 미션 vs 상업화의
긴장이 거버넌스 문제로 터진 사건이었어
FAQ
Q. OpenAI가 비영리로 출발했다는 게 지금도 유효해?
A. 완전히 유효하진 않아. 2019년 capped-profit 구조 전환으로 실질적인 영리 사업체가 됐거든. 다만 법적으로는 비영리 모기업이 여전히 지배권을 갖는 구조야. “비영리의 틀 안에 있는 영리 사업”이라고 보는 게 정확해.
Q. capped-profit이 정확히 뭐야?
A. 투자자 수익에 상한선을 두는 구조야. 일반 영리 기업은 수익이 무한정 돌아가지만, OpenAI LP는 초기 투자금 대비 일정 배수를 초과하면 나머지가 비영리 측으로 가게 돼. 그래서 “제한적 수익(capped profit)”이라고 불러.
Q. GPT-3가 175B인데 InstructGPT 1.3B가 더 낫다는 게 말이 돼?
A. 충분히 말 돼. 벤치마크 점수와 “사람이 실제로 선호하는 답”은 다른 거거든. GPT-3는 지식과 문장 생성 능력은 뛰어나지만, 지시를 따르거나 원하는 형태로 답을 내놓는 건 약했어. RLHF로 미세조정한 1.3B 모델이 그 부분에서 더 잘한 거야.
Q. RLHF가 정확히 어떻게 작동해?
A. 크게 세 단계야. ① 사람이 좋은 응답 예시를 만들어 지도학습, ② 여러 응답 중 더 나은 걸 사람이 순위 매기기, ③ 이 순위 데이터로 보상 모델을 만들고 강화학습. 핵심은 “사람의 선호를 수치화해서 학습 신호로 쓴다”는 거야.
Q. 2023년 11월 위기 때 왜 이사회가 Altman을 해임했어?
A. 공식적으로 공개된 이유는 “이사회와의 소통 방식 문제”였어. 하지만 배경에는 안전 연구팀과 제품팀 사이의 긴장, 상업화 속도에 대한 이견이 있었다고 알려져 있어. 며칠 만에 복귀했지만, 이 사건으로 OpenAI 거버넌스 구조의 취약성이 드러났어.
Q. GPT-2 때 왜 단계적 공개를 했어?
A. OpenAI는 당시 “GPT-2가 가짜 뉴스, 스팸, 허위 정보 생성에 악용될 수 있다”는 이유를 댔어. 일부에서는 과잉 대응이라는 비판도 있었지만, 이 결정이 이후 “모델 배포 방식도 기술만큼 중요하다”는 인식을 굳히는 계기가 됐어.
Q. GPT-4 시스템 카드가 뭐야?
A. 모델의 잠재적 위험, 테스트 결과, 안전 완화 조치를 정리한 문서야. 예를 들어 “이런 위험한 요청에 어떻게 응답하는지”, “어떤 레드팀 테스트를 했는지” 같은 내용이 담겨 있어. GPT-4부터 Technical Report와 함께 공개되는 게 표준이 됐어.
Q. OpenAI와 Microsoft의 관계가 종속 관계 아니야?
A. 상업적으로는 매우 깊이 얽혀 있어. Azure가 유일한 공식 클라우드 파트너이고, 마이크로소프트 제품(Bing, Copilot 등)에 OpenAI 모델이 들어가거든. 하지만 OpenAI 측은 기술 개발 독립성을 유지한다고 강조해. 실질적으로는 “긴밀한 파트너”에 가깝지, 완전한 종속은 아니야.
Q. GPT-4 이전까지 파라미터 수를 공개했는데 왜 GPT-4는 공개 안 해?
A. OpenAI는 “경쟁 및 안전 이유”라고만 했어. 일반적으로는 모델 구조를 공개하면 경쟁사가 복제하거나, 악의적 사용자가 취약점을 찾는 데 활용할 수 있다는 게 이유야. GPT-4 이후로 OpenAI는 점점 더 기술 세부 정보를 비공개로 가져가는 추세야.
참고 자료 (References)
데이터 출처
| 출처 | 설명 | 링크 |
|---|---|---|
| OpenAI 설립 발표 | 2015년 비영리 출범 공지, 10억 달러 기부 약정 | OpenAI 설립 공지 |
| OpenAI Charter | 2018년 공개, 이익 분배·안전 우선·협력 원칙 문서 | OpenAI 헌장 문서 |
| OpenAI LP 발표 | 2019년 3월, capped-profit 구조 도입 공지 | OpenAI LP 공지 |
| Microsoft 파트너십 발표 | 2019년 7월, 10억 달러 투자 + Azure 독점 파트너십 | Microsoft 파트너십 발표 |
| OpenAI & Microsoft 파트너십 확대 | 2023년 1월, 다년·다수십억 달러 규모 확대 | 파트너십 확대 공지 |
| WilmerHale 검토 결과 | 2024년 3월, Altman·Brockman 계속 리드 공식화 | WilmerHale 검토 결과 |
| GPT-3 논문 | 175B 파라미터, 인컨텍스트 학습 | arxiv |
| InstructGPT 논문 | RLHF 체계화, 1.3B가 175B 선호 평가 초과 | arxiv |
| GPT-4 Technical Report | 멀티모달, 시험 성능, 시스템 카드 | arxiv |
핵심 인용
“AGI가 인류 전체에 이익이 되도록 하는 것이 OpenAI의 핵심 목표야.”
— OpenAI 설립 발표, 2015“1.3B InstructGPT가 175B GPT-3보다 사람 선호 평가에서 더 높게 평가됐어.”
— InstructGPT 논문, 2022
다음 편 예고
[3편] ChatGPT는 어떻게 플랫폼이 됐나
- ChatGPT가 단순 챗봇에서 API·플러그인 생태계로 확장된 과정
- GPT-4 Turbo, 함수 호출(Function Calling) 등 개발자 도구화 전략
- OpenAI를 플랫폼으로 만든 제품 결정들의 배경
'AI' 카테고리의 다른 글
| ChatGPT를 이해하는 기술 배경 — API·RLHF·안전 정책의 흐름 — ChatGPT 기술 제품 조직 5/12 (0) | 2026.02.09 |
|---|---|
| 투명성이 OpenAI의 안전 전략이 된 이유 — 규제보다 먼저 움직인 공개 방식 — ChatGPT 기술 제품 조직 4/12 (0) | 2026.02.09 |
| ChatGPT가 단순 챗봇에서 플랫폼으로 진화한 과정 — ChatGPT 기술 제품 조직 3/12 (0) | 2026.02.08 |
| ChatGPT가 AI 판도를 뒤흔든 핵심 이유 5가지 — ChatGPT 기술 제품 조직 1/12 (0) | 2026.02.08 |
| ChatGPT 기술 제품 조직 — 시리즈 목차 (0) | 2026.02.08 |
