ChatGPT가 OS가 되려고 한다
OpenAI가 2025년 10월 6일, 샌프란시스코에서 DevDay를 열었다.
개발자 행사인데 처음으로 언론을 불렀다.
1,500명이 넘게 왔다고 한다.
뭔가 크게 터뜨릴 거란 예고였다.
챗봇에서 플랫폼으로
ChatGPT를 지금까지 어떻게 썼나.
질문하고, 답 받고, 끝.
필요하면 복붙해서 다른 곳에 쓰고.
이제 그 안에서 다 된다.
Apps SDK가 나왔다.
Canva, Zillow, Coursera 같은 서비스들이 ChatGPT 안으로 들어온다.
"포스터 만들어줘" 하면 Canva가 ChatGPT 채팅창 안에서 바로 4개 안을 보여준다.
마음에 안 들면 "이거 프레젠테이션으로 만들어줘" 하면 그대로 슬라이드덱이 나온다.
라이브 데모 담당자 Alexi Christakis가 시연했다.
Coursera 영상을 ChatGPT 안에서 재생하고,
포스터 만들고,
그걸 슬라이드로 바꾸고,
Zillow로 집까지 찾았다.
다 같은 채팅창 안에서.
관객들이 폰 꺼내서 찍을 정도로 반응이 좋았다고 한다.
8분 만에 에이전트 만들기
AgentKit도 공개됐다.
에이전트를 만들고, 배포하고, 최적화하는 도구다.
플랫폼 경험팀의 Christina Huang이 라이브로 에이전트를 만들었다.
DevDay 일정을 실행 가능한 형태로 바꾸는 에이전트.
스스로에게 8분을 줬다. 타이머 돌아가는 거 보이게.
Agent Builder에서 원하는 타입 선택하고,
if/else 명령 넣고,
구체적 조건 추가하고,
Session agent 완성. 5분 남음.
DevDay Agent도 만들고. 1분 걸림.
가드레일 추가하고 PII 에이전트로 강화. 3분 52초 남음.
워크플로우 테스트. 각 단계 확인 가능.
퍼블리시. 2분 37초 남음.
사이트에 코드 몇 줄 추가해서 에이전트 연결.
작동 확인.
49초 남기고 끝.
청중들 놀랐다.
그 자리에서 만든 에이전트가 DevDay 사이트에서 지금 돌아가고 있다.
Codex가 정식 출시됐다
OpenAI의 코딩 에이전트 Codex.
8월 초부터 사용량이 10배 늘었다고 한다.
리서치 프리뷰 딱지를 떼고 정식 출시.
개발 경험 책임자 Romain Huet가 데모를 했다.
카메라 움직임 제어 코드 짜고,
Xbox 360 컨트롤러에 연결하고,
몇 분 안에 작동시켰다.
컨트롤러로 카메라를 휙휙 돌렸다.
동시에 음성 어시스턴트도 만들었다.
말로 조명을 제어하는.
"청중들한테 조명 비춰줘" 하니까 실제로 됐다.
그 다음엔 크레딧 오버레이.
DevDay 참석자 전원 이름 띄우고,
카운트다운 시작하고,
단체 사진 찍기.
관객들이 또 폰 꺼냈다.
API에 추가된 것들
Sam Altman이 다시 나와서 모델 업데이트를 얘기했다.
GPT-5 Pro가 API로 나왔다.
정확도와 추론 깊이가 필요한 작업용이라고.
gpt-realtime-mini도 API에 추가.
AI가 사람들이 컴퓨터와 상호작용하는 주요 방식 중 하나가 될 거라면서.
Sora 2도 API로 공개됐다.
지난주 일반 공개된 영상 생성 AI.
Altman이 여러 프롬프트로 만든 영상을 보여줬는데,
디테일이 상당히 현실적이었다고 한다.
개발자들이 자기 제품 안에서 같은 퀄리티의 영상을 만들 수 있다.
Model Context Protocol
Apps SDK가 Anthropic의 Model Context Protocol(MCP)을 사용한다고 했다.
경쟁사 기술을 쓴다는 게 흥미로운 지점이다.
개발자들이 수익화 기회에 대해 흥분했다고 한다.
박수 소리가 컸다는 얘기.
Jony Ive는 뭐 했나
일정에 Jony Ive와의 대화가 있었다.
애플 출신 디자이너.
OpenAI가 만들고 있다는 AI 웨어러블 관련 업데이트를 기대했는데,
기사에는 그 내용이 안 나와 있다.
아마 공개 안 한 모양이다.
또는 기자가 그 세션에 안 들어갔거나.
ChatGPT는 이제 대화창이 아니다.
다른 앱들이 사는 집이 되려고 한다.
Canva도, Zillow도, Coursera도 그 안에서 돌아간다.
Windows에서 프로그램 여는 것처럼.
운영체제의 정의가 뭔가.
다른 소프트웨어가 돌아가는 기반.
그걸 노리고 있다.