시리즈: ChatGPT 기술 제품 조직 (총 12편) | 5회
ChatGPT를 이해하는 기술 배경 — API·RLHF·안전 정책의 흐름
ChatGPT가 왜 그렇게 빠르게 퍼졌는지, 내부 기술은 어떻게 진화했는지 궁금했다면 이 글이 딱이야. 개발자 API의 변천사부터 RLHF·함수 호출·안전 정책까지, 알아두면 ChatGPT의 큰 그림이 보이는 기술 배경을 정리했어.
Summary
- OpenAI 개발자 API는 Completions → Chat Completions → Responses API 순서로 진화하며, 단순 텍스트 생성에서 툴 통합·멀티모달·에이전트형 워크플로우 중심으로 바뀌었어
- 2023년 function calling 도입이 핵심 전환점 — 자연어 출력에서 구조화된 JSON 반환으로 바뀌면서 자동화가 현실화됐어
- ChatGPT의 폭발적 확산은 기술만이 아니라 무료 공개 + 대화형 UX + RLHF 품질 + 소셜 바이럴이 한꺼번에 맞물린 결과야
- 안전·정책 체계는 GPT-2 단계적 공개부터 시스템 카드까지 꾸준히 강화돼 왔어
이 글의 대상
- ChatGPT 내부 기술이 어떻게 작동하는지 궁금한 사람
- OpenAI API를 써봤거나 쓰려는 개발자
- 생성형 AI 흐름을 맥락과 함께 이해하고 싶은 사람
- RLHF, function calling 같은 용어를 제대로 정리하고 싶은 사람
목차
- OpenAI API는 어떻게 진화했나
- function calling: 자동화를 현실로 만든 전환점
- Assistants API의 실험과 교훈
- 안전·정책·거버넌스의 진화
- ChatGPT가 폭발적으로 퍼진 진짜 이유
- 저작권 논쟁과 사용 정책의 변화
1. OpenAI API는 어떻게 진화했나
OpenAI 개발자 플랫폼은 Completions → Chat Completions → Responses API 세 단계를 거쳐 왔어.
처음 Completions API는 단순했어. 프롬프트를 넣으면 텍스트가 나오는 구조. GPT-3(2020)가 처음 공개됐을 때 이 방식이 전부였지. 강력하긴 했는데, “대화”보다는 “완성”에 가까웠어.
Chat Completions API는 메시지 배열(messages: [...]) 형태로 대화 맥락을 넘기는 구조를 도입했어. ChatGPT의 UI가 이걸 기반으로 만들어졌고, 개발자들도 이 포맷으로 챗봇을 만들기 시작했지. 오늘날 대부분의 ChatGPT 기반 서비스가 이 API를 쓰는 거야.
최신 Responses API는 여기서 한 발 더 나갔어. “대화”를 넘어서 툴 통합·상태 유지·멀티모달·에이전트형 워크플로우를 기본값으로 재설계됐거든. 단순히 채팅 답변을 만드는 게 아니라, 여러 툴을 연결해서 복잡한 작업을 처리하는 방향이야.
| 버전 | 핵심 특징 | 주요 변화 |
|---|---|---|
| Completions | 텍스트 완성 | 단순 프롬프트→텍스트 |
| Chat Completions | 대화 맥락 유지 | messages 배열, 역할 구분 |
| Responses API | 에이전트형 워크플로우 | 툴 통합, 상태 유지, 멀티모달 |
2. function calling: 자동화를 현실로 만든 전환점
2023년에 나온 function calling은 단순한 기능 업데이트가 아니었어. 모델이 외부 시스템과 “안전하게 연결되는” 방식이 생긴 거거든.
기존에는 GPT가 텍스트로만 답했어. “오늘 서울 날씨는 맑습니다” 같은 식으로. 근데 function calling이 생기면서, 모델이 “날씨 API를 이렇게 호출해” 라는 구조화된 JSON 인자를 반환할 수 있게 됐어.
{
"name": "get_weather",
"arguments": {
"location": "서울",
"unit": "celsius"
}
}
이게 왜 중요하냐면, 자연어 → 구조화 데이터 변환이 신뢰할 수 있게 됐기 때문이야. 이전에는 GPT 출력을 파싱해서 쓰려면 정규표현식이니 뭐니 해야 했는데, 이제는 정해진 스키마대로 나오니까 자동화가 훨씬 안정적으로 됐지.
여기서 파생된 개념이 Tool Use야. 웹 검색, 코드 실행, 데이터베이스 조회 등을 모델이 직접 “호출”하는 방식이 이걸 기반으로 발전했어. 지금 ChatGPT가 웹 검색하거나 코드 실행하는 것도 이 흐름의 연장이야.
3. Assistants API의 실험과 교훈
Assistants API는 한 단계 위의 추상화를 시도했어. file_search, code_interpreter 같은 호스티드 툴들을 하나로 묶어서, 개발자가 어시스턴트를 직접 “구성”할 수 있게 한 거야.
아이디어는 좋았어. 파일 검색, 코드 실행, 대화 상태 관리를 OpenAI 인프라에서 통합으로 처리해 주니까 개발자 입장에서는 편리하거든.
근데 OpenAI 스스로 “채택이 제한적이었다”고 평가했어. 유연성이 부족했고, 실제 프로덕션에서 원하는 방식으로 커스터마이징하기 어려웠던 거야.
그 교훈이 Responses API에 흡수됐어. 완전히 없애는 게 아니라, 무엇이 됐고 무엇이 안 됐는지를 배워서 다음 버전에 녹여낸 거지. 기술 제품 조직이 어떻게 실험하고 학습하는지 잘 보여주는 사례야.
4. 안전·정책·거버넌스의 진화
OpenAI의 안전 접근 방식은 초기부터 지금까지 꾸준히 강화돼 왔어.
GPT-2 단계적 공개 (2019): 처음부터 완전 공개하지 않았어. 성능이 너무 좋아서 오남용 우려가 컸거든. 몇 달에 걸쳐 단계적으로 공개하는 방식을 택했는데, 당시엔 논란도 많았어 — “과도하게 신중한 거 아니냐”는 비판부터 “그래도 책임감 있는 선택”이라는 지지까지.
API 통제 (GPT-3, 2020): GPT-3는 처음부터 공개 다운로드가 아닌 API 방식으로만 제공됐어. 누가 어떻게 쓰는지 파악하고 통제할 수 있게 한 거야.
RLHF 실무화 (InstructGPT, 2022): RLHF(인간 피드백 강화학습)를 실제 제품에 적용한 게 InstructGPT야. 사람이 선호하는 답을 레이블링해서 모델 학습에 반영하는 방식인데, 이게 ChatGPT의 “말이 통하는 느낌”을 만들어낸 핵심 기술이야.
시스템 카드 (GPT-4, 2023~): GPT-4부터는 모델 출시와 함께 시스템 카드를 공개하기 시작했어. 어떤 위험을 평가했고 어떻게 완화했는지를 문서로 공개하는 거야. 투명성 측면에서 꽤 의미 있는 변화야.
| 시기 | 이벤트 | 핵심 변화 |
|---|---|---|
| 2019 | GPT-2 단계적 공개 | 오남용 우려, 책임감 있는 공개 실험 |
| 2020 | GPT-3 API 통제 방식 | 오픈소스 X, API로만 제공 |
| 2022 | InstructGPT, RLHF | 사람 피드백 학습 실무화 |
| 2023~ | GPT-4 시스템 카드 | 위험 평가 공개 문서화 |
5. ChatGPT가 폭발적으로 퍼진 진짜 이유
5일 만에 100만 가입자, 2개월 만에 1억 사용자.
이 숫자가 상징하는 건 단순히 “좋은 AI”가 나왔다는 게 아니야. 여러 요소가 한꺼번에 맞물렸어.
무료 연구 프리뷰: 접근 장벽을 없앴어. 돈 내야 쓸 수 있었다면 이렇게 빠르게 퍼지지 않았을 거야.
대화형 UX: 이전 AI 도구들은 개발자 친화적이었어. ChatGPT는 그냥 채팅창이었지. 할머니도 쓸 수 있는 인터페이스.
RLHF 기반 체감 품질: 기술적으로 뛰어난 것과 “써보니 말이 통한다”는 건 달라. RLHF가 후자를 만들어냈어. 이전 GPT-3도 성능은 뛰어났지만 “쓰기 어려운” 느낌이 있었거든.
소셜 바이럴: 트위터, 유튜브, 커뮤니티에서 “GPT로 이런 것도 된다”는 스크린샷이 쏟아졌어. 마케팅 없이도 퍼진 거야.
파트너십과 인프라: Microsoft와의 파트너십으로 Azure 인프라를 활용하면서 폭발적 수요를 버텼어. 인프라가 터졌다면 바이럴도 없었겠지.
기술 하나가 세상을 바꾼 게 아니라, 제품·기술·타이밍·파트너십이 맞아떨어진 거야.
6. 저작권 논쟁과 사용 정책의 변화
빠른 성장에는 마찰도 따라왔어.
Authors Guild 집단소송 (2023): 작가들이 OpenAI를 상대로 집단소송을 제기했어. 학습 데이터에 저작권 있는 책들이 포함됐다는 게 핵심이야. 이 소송은 현재도 진행 중이고, 생성형 AI 전반의 데이터 거버넌스 논쟁을 촉발했어.
언론사·저자 그룹의 문제 제기: 뉴욕타임스를 비롯한 언론사, 저자 단체들이 연이어 문제를 제기했어. AI가 생산한 텍스트가 원저작물의 표현을 활용하는지, 학습 데이터 사용이 공정 이용에 해당하는지 — 법적으로 아직 정리되지 않은 쟁점들이야.
사용 정책의 지속 개정: OpenAI 사용 정책은 2023년 통합 이후 계속 업데이트됐어 (2023-02-15, 2024-01-10, 2025-10-29 등). 방향은 “고위험 영역 통제 강화”와 “제품 전반에 통일된 가드레일 적용”이야. 플러그인·GPT·API·ChatGPT 앱 할 것 없이 동일한 기준을 적용하는 방식으로 가고 있어.
핵심 정리
1. OpenAI API는 Completions → Chat Completions → Responses API로 진화,
에이전트형 워크플로우가 새로운 기본값이 됐어
2. function calling(2023)은 자연어 → 구조화 JSON 반환으로 자동화를 현실화시킨
핵심 전환점이야
3. 안전 체계는 GPT-2 단계적 공개(2019) → API 통제(2020) → RLHF(2022)
→ 시스템 카드(2023~) 순서로 강화돼 왔어
4. ChatGPT의 폭발적 확산은 기술 단독이 아니라 무료 공개 + UX + RLHF 품질
+ 소셜 바이럴 + 파트너십이 한꺼번에 작동한 결과야
5. 저작권 논쟁과 사용 정책 개정은 데이터 거버넌스와 공개 관행을 계속
압박하고 있어 — 아직 끝나지 않은 이야기
FAQ
Q. RLHF가 뭔지 간단히 설명해 줘
A. Reinforcement Learning from Human Feedback의 약자야. 사람이 여러 답변 중 어떤 게 더 좋은지 선택하면, 그 선호도를 강화학습으로 모델에 반영하는 방식이야. “사람이 좋아하는 답을 더 잘 내놓도록” 훈련하는 거라고 보면 돼. ChatGPT가 이전 GPT-3보다 훨씬 대화하기 편하게 느껴지는 게 이 덕분이야.
Q. Completions API랑 Chat Completions API는 실제로 어떻게 달라?
A. Completions는 텍스트 한 덩이를 넣으면 이어서 완성해 주는 방식이야. Chat Completions는 system, user, assistant 역할이 구분된 메시지 배열을 입력으로 받아. 대화 히스토리를 구조적으로 표현할 수 있어서 챗봇 만들기에 훨씬 자연스럽지.
Q. function calling을 쓰면 모델이 직접 인터넷을 검색하나?
A. 아니야. 모델은 “이 함수를 이런 인자로 호출해줘”라는 JSON을 반환할 뿐이야. 실제 함수를 실행하는 건 개발자 코드(또는 플랫폼)야. 모델이 직접 실행하는 게 아니라, 어떻게 호출할지 알려주는 거야. ChatGPT의 웹 검색 기능은 이 패턴을 OpenAI가 자체 인프라로 구현한 것이야.
Q. Assistants API가 실패한 거야?
A. 완전히 실패했다기보단, 기대한 만큼 채택이 안 됐어. OpenAI 스스로 그렇게 평가했고, 거기서 배운 걸 Responses API에 녹여냈어. 기술 조직이 실험을 폐기하는 게 아니라 교훈으로 흡수하는 방식이야.
Q. GPT-4 시스템 카드가 뭐야?
A. 모델을 출시할 때 함께 공개하는 문서인데, “이 모델로 어떤 위험이 있고, 어떻게 완화했는지”를 적은 거야. 외부 연구자나 규제 기관이 AI 안전성을 평가할 수 있도록 OpenAI가 자체적으로 공개하는 투명성 문서야. GPT-4부터 체계화됐어.
Q. Authors Guild 소송은 어떻게 됐어?
A. 2023년 제기된 이후 현재도 진행 중이야. 핵심 쟁점은 “AI 학습에 저작권 있는 책을 동의 없이 사용한 게 저작권 침해냐”인데, 법원에서 아직 최종 판단이 나오지 않았어. 이 결과가 생성형 AI 산업 전반의 데이터 관행에 큰 영향을 미칠 거야.
Q. ChatGPT가 5일 만에 100만 명을 모은 게 왜 특별해?
A. 비교 대상이 되는 다른 서비스들 — 인스타그램은 100만 달성에 2.5개월, 스포티파이는 5개월 걸렸어. 특별한 광고도 없이 5일이면 엄청난 거야. 단, 이 숫자는 OpenAI 공동창업자 Greg Brockman의 트윗에서 나온 거라 공식 검증된 수치는 아니야 — 상징적 수치로 이해하면 돼.
Q. 사용 정책이 계속 바뀌는 이유가 뭐야?
A. 제품이 늘어나면서 일관된 기준이 필요해졌거든. 초기에는 API, ChatGPT, 플러그인 등 제품별로 제각각이었는데, 2023년 이후 통합하고 지속 개정하고 있어. 방향은 “고위험 영역은 엄격하게, 나머지는 유연하게”야. 새로운 기능이나 외부 압력(규제, 소송 등)에 따라 업데이트되는 살아있는 문서야.
Q. Responses API로 이전해야 해?
A. 지금 Chat Completions를 쓰고 있다면 당장 바꿔야 하는 건 아니야. 근데 에이전트형 기능(툴 통합, 상태 유지, 멀티모달)을 쓰고 싶다면 Responses API가 더 적합해. OpenAI도 신규 기능을 Responses 중심으로 개발하고 있어서, 장기적으로는 이전하는 게 맞아.
참고 자료 (References)
데이터 출처
| 출처 | 설명 | 링크 |
|---|---|---|
| OpenAI Blog | Responses API 발표 | Responses API |
| OpenAI Blog | Function calling 발표 (2023) | Function Calling |
| OpenAI Blog | GPT-2 공개 발표 | GPT-2 1.5B Release |
| arXiv | InstructGPT / RLHF 논문 | arXiv:2203.02155 |
| The Guardian | ChatGPT 1억 사용자 보도 | Guardian 기사 |
| Class Action | Authors Guild 집단소송 문서 | 소송 문서 |
| OpenAI | 사용 정책 | Usage Policies |
| OpenAI | GPT-4 시스템 카드 | System Card |
핵심 인용
“ChatGPT launched on Wednesday. Today (day 5), we crossed 1 million users.”
— Greg Brockman (@gdb), 2022-12-05
다음 편 예고
[6편] ChatGPT를 둘러싼 논쟁들
- Chat Completions 구조 한계와 API 전쟁
- Responses API 전환 논쟁
- Usage Policies 타임라인
- 상충하는 정보 정리
'AI' 카테고리의 다른 글
| 3년이 만든 놀라운 변화: 기술·제품·조직이 맞물린 방식 — ChatGPT 기술 제품 조직 7/12 (0) | 2026.02.09 |
|---|---|
| ChatGPT를 둘러싼 세 가지 큰 논쟁: API 전쟁, 안전 딜레마, 대중화의 이면 — ChatGPT 기술 제품 조직 6/12 (0) | 2026.02.09 |
| 투명성이 OpenAI의 안전 전략이 된 이유 — 규제보다 먼저 움직인 공개 방식 — ChatGPT 기술 제품 조직 4/12 (0) | 2026.02.09 |
| ChatGPT가 단순 챗봇에서 플랫폼으로 진화한 과정 — ChatGPT 기술 제품 조직 3/12 (0) | 2026.02.08 |
| 비영리 실험실이 거대 기업이 된 과정 — OpenAI 설립부터 GPT-4까지 — ChatGPT 기술 제품 조직 2/12 (0) | 2026.02.08 |
