샌프란시스코 Fort Mason에서 OpenAI DevDay 2025가 개최되었습니다. Sam Altman CEO는 OpenAI가 시작된 도시이자 AI의 미래를 구축하기로 약속한 샌프란시스코에서 개발자들을 환영했습니다. 2023년 첫 DevDay 이후 거의 2년이 지난 시점에서, 그간의 여정을 돌아보고 새로운 발표를 준비하는 개막 순서였습니다.



이러한 수치들의 변화량은 AI가 "사람들이 가지고 놀던 것"에서 "사람들이 매일 개발하는 도구"로 완전히 전환되었음을 보여줍니다.

Sam Altman은 개발자들의 피드백을 철저히 반영한 네 가지 핵심 발표를 예고했습니다:

Sam은 "이것은 역사상 빌더가 되기에 최고의 시기"라며, "아이디어에서 제품까지 이렇게 빠른 적이 없었다"고 강조했습니다.
OpenAI는 ChatGPT를 사람들이 더 생산적이고, 더 창의적이며, 더 빠르게 배울 수 있도록 돕는 도구로 만들어왔습니다.
첫 DevDay 이후 지속적으로 개발자에게 ChatGPT를 개방해왔으며:
이제 개발자들은 ChatGPT 안에 완전한 앱을 구축할 수 있습니다.
이는 다음과 같은 특징을 가진 차세대 애플리케이션을 가능하게 합니다:
프리뷰로 제공되는 Apps SDK는 완전한 풀스택 개발을 지원합니다:


1. 백엔드 통합
2. 프론트엔드 렌더링
3. MCP 기반 아키텍처

Apps SDK로 구축한 앱은:
향후 다양한 수익화 방법 지원 예정:

Example - Figma App

Example - Spotify App
Alexi(ChatGPT 소프트웨어 엔지니어)가 무대에 올라 실제 작동하는 앱들을 직접 시연했습니다.
첫 번째 사용: 앱 연결
사용자가 아래와 같이 요청하면:
👤 사용자 : "Coursera, teach me something about machine learning"

인라인 비디오 경험
Coursera 앱은 대화 내에서 인라인으로 표시(채팅 내부에서 동영상 시청 가능)되며:

Talking to Apps: 컨텍스트 인식
가장 혁신적인 기능은 "Talking to Apps"입니다:
👤 사용자: "Can you explain more about what they are saying right now"

Apps SDK는 앱이 현재 사용자가 보고 있는 컨텍스트를 ChatGPT에 노출하는 API를 제공합니다.
이를 통해:
이는 ChatGPT를 활용한 학습 경험이 더욱 풍부해지는 사례로, 전 세계 사용자를 위한 새로운 교육 경험을 가능하게 합니다.
대화 기반 디자인 워크플로우
사용자가 동생의 반려견 산책 사업을 위한 아이디어를 브레인스토밍하던 중:
👤 사용자: "Canva, make me a portfolio with this "Walk This Wag" name. I want it to be colorful, whimsical and bright, and ask Coursera for a typing course, prefer sans-serif font."

인라인에서 전체화면으로
Canva가 여러 포스터 옵션을 생성하면:

실시간 콘텐츠 변환

👤 사용자: "Canva please make this poster into a pitch deck, we're trying to raise a seed round for dog walking."
몇 초 만에 포스터가 완전한 프레젠테이션 슬라이드 덱으로 변환됩니다.
이는:

모든 것이 대화 내에서 실시간으로 이뤄집니다.
컨텍스트 연속성

👤 사용자: "Where should we expand?"
🤖 ChatGPT: "Pittsburgh!" (매우 열정적으로 추천)
👤 사용자: "zillow, Show me homes for sale there"

(참고) Zillow는 미국 최대의 온라인 부동산 마켓플레이스로, 집을 사거나, 임대하거나, 판매하는 데 필요한 매물 정보, 데이터, 계산기 등 다양한 도구를 제공하는 웹사이트 및 서비스입니다.
- 한국의 직방이나 다방과 유사한 플랫폼으로, 미국 부동산 시장의 정보를 통합하고 사용자에게 부동산 거래를 위한 편의성을 제공하는 것을 목표로 합니다.
동적 데이터 로딩
Zillow 앱이 호출되면:
1. 최신 데이터 페칭: 실시간 부동산 정보 가져오기
2. 대화형 지도 임베딩: ChatGPT 내 인터랙티브 맵 표시
3. 매물 목록: 여러 주택이 지도에 표시됨

뷰 전환: 인라인 → 전체화면
인라인 지도가 작아서 보기 어려운 경우:

자연어 필터링
👤 사용자: "Filter this to just the three bedroom homes with a yard"
전체화면 상태에서:

특정 주택을 확대한 후:
👤 사용자: "How close is this to a dog park?"
Zillow 앱이 현재 사용자가 보고 있는 주택 정보를 ChatGPT에 노출하므로:

이는 Apps SDK 경험이 얼마나 동적이고 컨텍스트 인식적인지 보여주는 완벽한 사례입니다.
데모에서 본 앱들과 추가 파트너들이 오늘부터 ChatGPT에서 이용 가능합니다:

개발자용 Apps SDK
올해 말 출시 예정
Developer Guidelines (오늘 초안 공개):
수익화
Sam Altman은 "이것은 개발자와 ChatGPT 사용자 모두에게 흥미진진한 새 장이 될 것"이라며 마무리했습니다.

AI는 "질문하는 시스템"에서 "여러 일을 해주는 시스템"으로 진화하고 있습니다.
이것이 에이전트(Agents)입니다:
에이전트의 정의
이 세 가지를 갖춘 소프트웨어가 작업을 대신 수행합니다.
에이전트에 대한 열기는 뜨겁지만, 실제 프로덕션에 배포되는 에이전트는 극소수입니다.
그 이유는 바로:
1. 시작점 불명확
2. 많은 작업량
3. 불확실성
수천 개 팀과 대화한 결과:
에이전트 개발의 기술적 과제
프로덕션 환경에서 에이전트 배포가 어려운 이유는 다층적 복잡성 때문입니다.
- 오케스트레이션(orchestration)은 다중 도구 호출 및 의사결정 흐름을 관리해야 합니다.
- 평가 루프(eval loops)를 통해 에이전트 행동의 정확성과 안정성을 검증해야 합니다.
- 또한 내부 시스템 및 외부 API와의 안전한 도구 연결(tool connection), 그리고 에이전트와 사용자 간 효과적인 UI 구현까지 고려해야 합니다.
AgentKit는 이러한 각 계층에 대한 솔루션을 제공하는 종합 플랫폼입니다.

아이디어에서 에이전트까지 훨씬 빠르게
설계 목적
대상 사용자

빠른 비주얼 방식으로:
기술적 기반
왼쪽 패널에서 사용 가능한 공통 빌딩 블록:
1. Agent 노드
2. Tools 노드
3. If/Else 노드
4. Human-in-the-Loop
5. Guardrails
이 패턴들은 OpenAI가 에이전트를 구축하며 학습한 공통 패턴을 추출한 것입니다.

훌륭한 채팅 경험을 자신의 앱에 바로 가져오기
ChatKit는:
Agent Builder에서 설계한 워크플로우를 ChatKit를 통해 실행하면:
이는 복잡한 에이전트 워크플로우를 사용자에게는 하나의 일관된 대화 경험으로 제공합니다.

에이전트를 프로덕션에 배포하기 전, 성능과 안정성을 체계적으로 검증하는 것이 필수적입니다. AgentKit는 에이전트 특화 평가 도구를 제공하여 각 의사결정 단계를 분석하고, 문제점을 조기에 발견하며, 지속적인 개선을 가능하게 합니다.
1. Trace Grading (트레이스 등급 평가)
에이전트의 실행 과정 전체를 추적하고 평가하는 기능입니다:
예를 들어, 고객 지원 에이전트가 잘못된 답변을 제공했다면, Trace Grading을 통해 어느 노드에서 잘못된 정보를 검색했는지, 또는 어떤 조건 분기가 잘못 작동했는지 정확히 파악할 수 있습니다.
2. Datasets (데이터셋 관리)
노드별 테스트 케이스를 체계적으로 관리하는 기능입니다:
예를 들어, "세션 검색 에이전트"에 대해 100개의 다양한 질문 데이터셋을 준비하고, 프롬프트 수정 전후의 정확도를 비교 측정할 수 있습니다.
3. Automated Prompt Optimization (자동 프롬프트 최적화)
데이터 기반으로 프롬프트를 자동 개선하는 기능입니다:
이는 LLM의 비결정적 특성을 고려하여, 통계적으로 유의미한 성능 향상을 달성하는 프롬프트를 찾아냅니다.
4. External Model Evaluation (외부 모델 평가)
벤더 중립적 평가 환경을 제공합니다:
예를 들어, 간단한 분류 작업에는 저렴한 모델을, 복잡한 추론 작업에는 고성능 모델을 배치하는 전략을 데이터 기반으로 수립할 수 있습니다.

에이전트는 데이터에 접근해야 작동합니다. OpenAI Connector Registry는:
안전한 연결 관리
보안 및 제어
Albertsons 소개
매장 관리자의 일상적 의사결정
매장 관리 시에는 끊임없는 결정이 필요합니다:
AgentKit로 구축한 솔루션

문제 상황 정의:
아이스크림 매출이 예상치 못하게 32% 감소
기존 프로세스:
에이전트 활용 프로세스:

직원이 질문: "무슨 일이 일어나고 있나요?"
에이전트가 전체 컨텍스트 분석:
권장사항 제시:
결과: 복잡한 의사결정 프로세스가 즉각적인 대화형 권장사항으로 단순화됩니다.
HubSpot과 Breeze

실제 사례: Luma Plants
고객 질문: "애리조나에서 식물이 잘 자라지 않는 이유는?"
Breeze Assistant의 처리 과정:
자체 지식베이스 검색
지역별 처리 방법 조회
정책 세부사항 통합
종합 응답 생성
AgentKit - 활용 파트너 목록

Christina(Platform Experience 팀)가 무대에 올라 AgentKit가 개발자들이 그 어느 때보다 빠르게 에이전트를 만들도록 돕는 방법을 시연했습니다.

기존 DevDay 웹사이트:
목표:
8분 타이머 시작:
Christina: "에이전트 구축이 얼마나 어려운지 들었으니, 이것은 도전이 될 것입니다."
무대에 카운트다운 타이머가 표시되며 본격적인 데모가 시작됩니다. ㅎㄷㄷ
시작: Workflow Builder
Christina는 OpenAI 플랫폼의 Workflow Builder에서 시작합니다.
코드 대신 비주얼 와이어링:

Phase 1: 메시지 분류기
목표: 들어오는 질문 유형 판별
구조:
1. Classifier Agent 노드 추가


Phase 2: Session Agent 생성
Session Agent 노드 설정:

이름 지정: "Session Agent"
컨텍스트 부여:
도구 추가:
Phase 3: 커스텀 위젯 생성

목표: 일정을 재미있고 시각적으로 표시
Widget Builder로 이동:

Preview 확인:
Phase 4: DevDay Agent 생성
또 다른 Agent 노드 추가:

이름: "DevDay Agent"
컨텍스트 설정:
파일 추가:
If/Else 노드에 연결:
Phase 5: Guardrails 추가


흠 저거 User로 하는거 아니지 않나..?

출력 구성

Agent Builder에서 미리보기
테스트 질문: "What session should I attend to learn more about building agents?"

Christina: "아직 하지 않은 한 가지는 전체 평가(Evals) 세트입니다."
정상적인 프로세스:
시간상 문제로 이건 SKIP
배포 버튼 클릭:
결과물:
Agent Builder에서 배포하면:
그리고 화면에 두 가지 통합 방법이 제시됩니다:


1. 세션 생성 함수 구현:

방금 배포한 워크플로우 ID를 사용하여 ChatKit 세션을 생성합니다.
body: JSON.stringify({
workflow: { id: "wf_88e3d4aad25e08190909e417982f295e20d191e944312370a" },
user: deviceId,
}),
});
2. ChatKit React 컴포넌트 설정:

시각적 커스터마이징으로 Froge 브랜드 스타일을 적용합니다.
import { ChatKit, useChatKit } from "../lib/chatkit-react";
export const FrogeChat = () => {
const chatKit = useChatKit({
api: {
getClientSecret,
},
header: {
title: {
text: "Ask Froge",
},
...
3. App 컴포넌트에 통합:

DevDay 웹사이트의 전체 레이아웃을 구성하고, BottomSheet 컴포넌트 안에 FrogeChat을 배치하여 하단에서 슬라이드업되는 채팅 인터페이스를 완성합니다.
export default function App() {
return (
<div className="pb-sm px-sm gap-2xl mx-auto flex max-w-[620px] touch-pan-y flex-col overflow-x-hidden overscroll-x-none">
<AnimatedFroge />
<LeadLinks />
<Directory />
<BottomSheet>
<FrogeChat /> //여기에 선언!
</BottomSheet>
</div>
);
}
4. 링크 추가:

사이트 상단에 "Ask Froge" 접근 가능한 인터페이스 구성이 완료됩니다.
export default function LeadLinks() {
return (
<>
<Rive src={animationURL} className="mx-auto h-64 w-64" />
<div className="gap-4xs flex flex-col items-start">
<a className="text-primary-100" href="https://openai.com">
Download the entire day <span className="text-[#328FF2]">↓</span>
</a>
className="text-primary-100"
href="https://discord.verify.openai.com/devday"
>
DevDay 2025 Discord <span className="text-[#54CA31]">↗</span>
</a>
</div>
</>
);
}
사이트 새로고침:


테스트 질문: "What session should I attend to learn about building agents?"
가장 흥미진진한 일 중 하나:

(참고) Abundant Software의 의미
기존 시대: Scarcity (희소성)
AI 시대: Abundance (풍요)
1. 일본의 89세 퇴직자

2. 스페인의 Pau Garcia와 Domestic Data Streamers

3. 애리조나 주립대(ASU) 의대생 🏥

4. 프랑스 베르사유 궁전 🇫🇷

Sam: "사람들이 만들고 있는 것을 보는 것은 정말 멋집니다."
이것이 바로 OpenAI가 개발자에게 더 빠르게 구축할 수 있는 더 많은 도구를 제공하는 데 열정적인 이유입니다.
올해 초 출시:
이후 성장:
ChatGPT 계정으로 모든 것 연결:
Sam: "우리는 Codex에 대한 수많은 새 기능을 출시했습니다."
다음 섹션에서 자세히 설명될 예정.
GPT-5-Codex:
핵심 역량:
코드 리팩토링 (Code Refactoring)
코드 리뷰 (Code Review)
동적 사고 시간 조정
개발자 반응
사용자 증가:
주요 지표: Daily Messages (일일 메시지 수)
GPT-5-Codex는 가장 빠르게 성장하는 모델 중 하나:
Codex는 내부 빌드 과정 전반에 존재:
모든 신규 코드:
생산성 향상:
코드 리뷰:
오늘부터:
기존 상황:
새로운 목표:

Slack Integration 🔔
가장 많이 요청된 기능:
사용 사례:
Codex SDK 🛠️
엔터프라이즈 관리 기능 📊
환경 제어 (Environment Controls):
모니터링 (Monitoring):
분석 대시보드 (Analytics Dashboards):
사용자 범위:
주말 사이드 프로젝트 개발자 👨💻
고성장 스타트업 🚀
글로벌 엔터프라이즈 🏢
Cisco 사례
성과:
코드 리뷰 속도: 50% 더 빠름 ⚡
프로젝트 타임라인: 수 주 → 수 일 📅
이는 대규모 조직에서도 Codex가 실질적 영향을 미칠 수 있음을 보여줍니다.
Romain은 일찍이 Codex CLI에게 간단한 컨트롤 패널 인터페이스를 만들어달라고 요청했습니다.
요청 내용:

추가 작업:

시작할 기본 인터페이스 준비가 완료되었습니다.

Romain은 솔직히 어떻게 시작해야 할지 몰랐다고 고백합니다. 카메라용 C++ SDK가 있다는 것만 알고 있었고, Codex가 아마 JavaScript로 번역하려 할 것이라고 생각했습니다.
How to control a Sony FR7 camera?

Please scaffold a VISCA control stack from scratch for a Sony FR7 camera. Create a
visca-backendservice that speaks VISCA over TCP 52381 using env vars VISCA_HOST and VISCA_PORT, exposes /api/status plus /api/ptz/*, and runs vianpm run visca:devon http://localhost:5000. Add the supporting root scripts, implement frontend server actions and a reusable hook, and wire camera controls. Remember to honor busy/disabled states while calling the camera API.
요청 내용 해설:
Node.js 기반 VISCA 제어 스택 구축
Romain은 Codex가 데모하기 점점 어려워지고 있다고 말합니다. 왜냐하면 큰 리팩토링 작업에 7시간 이상 연속 작업 가능하고, 제대로 완수하기 때문입니다.

VS Code로 전환하면 Codex CLI가 만든 파일들을 확인할 수 있습니다. Node 서버가 구축되었고, VISCA 프로토콜이 완벽하게 구현되었습니다.
프로토콜 학습의 놀라움:
이 프로토콜을 배우는 데 걸렸을 시간을 상상해보라고 Romain은 말합니다. VISCA 프로토콜은 30년 이상 된 프로토콜로, 매우 특수한 헤더를 전송해야 하며 이 카메라 전용입니다. Codex는 프로토콜을 자동으로 학습하고, 정확한 헤더를 식별하여, 올바르게 구현했습니다.
카메라 제어 성공:
더 나은 무언가를 할 수 있을 것 같았습니다. Romain은 일찍 백스테이지에서 Xbox 컨트롤러를 발견했고, 시도해볼 만한 것이라고 생각했습니다.

Wire up a wireless controller to control the camera
화면에 표시되는 것:
1. 계획 수립 (Making a plan):
2. 파일 탐색 (Exploring files):
3. 게임패드 연결 방법 파악:
IDE의 핵심 개념은 Context입니다. 프롬프트가 짧을 수 있는 이유는 Codex가 의도를 이해하고, 최근 사용한 파일을 확인하며, 그에 따라 조정하기 때문입니다. 사용자가 작업 중인 파일, 프로젝트 구조, 관련 종속성을 자동으로 인식합니다.

Task 2는 완료까지 약 1분 소요되며 백그라운드에서 계속 진행됩니다. Xbox 컨트롤러로 카메라를 제어할 수 있는지 테스트한 결과, 작동에 성공했습니다.

정말 멋진 점은 어떤 버튼이 무엇을 해야 하는지 명시하지 않았는데도, Codex가 조이스틱이 좋은 아이디어라는 것을 알아내고 카메라 pan/tilt에 자연스럽게 매핑했다는 것입니다.
Romain은 흥미로운 인터페이스 중 하나는 음성(voice)이라고 생각했습니다. 시간을 절약하기 위해 Codex에게 Realtime API 통합, Agent SDK 연결, 그리고 화면 하단의 점에 앱 통합을 미리 요청했습니다.

Romain은 데모에서 더 인상적인 작업을 보여줄 수 있을지 고민하던 중, 주변에 있던 조명 시스템에 주목했습니다. 그는 이 조명을 제어하는 MCP 서버를 직접 만들어보기로 했습니다.

Cloud Codex 프롬프트:
Build a new MCP server for the ENTTEC S-Play lighting system.
Use the S-Play REST API docs from https://github.com/ENTTEC/SplayApi. For instance, it looks like POST <host>/api with `{ command: 8 }` fetches playlists and `{ command: 0, playlist_id }` starts one (controller host provided via SPLAY_HOST).
Implement an Express ESM server that exposes:
- GET /sse – open an SSEServerTransport session for MCP traffic
- POST /messages?sessionId= – feed messages back into the active session
- GET /health – return { name, version, host, playlistCount }
Register MCP tools `enttec_set_target` (host string + optional autoRefresh), `enttec_refresh_playlists`, and one dynamic `enttec_play_id` per cached playlist so that ...
VS Code로 복귀하여 Cloud Codex에서 작업한 내용을 확인할 수 있습니다. Apply 버튼을 클릭하면 MCP 서버의 모든 변경사항이 로컬에 적용되고, 종속성 설치가 시작되며 준비가 완료됩니다.

Romain은 본격적인 통합 테스트를 위해 음성 모드를 켜고, Codex가 음성 명령을 인식하여 조명을 정상적으로 제어하는지 시연을 진행하였습니다.

Romain: Hello.
AI: "Hi there, I can hear you loud and clear. Let me know what you need."
Romain: What do you see on camera?
AI: "I see a large audience in front of you with rows of attendees seated and ready. The room is well lit and the crowd fills the space."
AI가 카메라 피드를 실시간으로 분석하여 상황을 이해하고 설명합니다.
Romain: Could you shine the lights towards the audience?
AI: "I've just lit up the audience with a nice bright light to be perfectly highlighted now."
객석에 조명이 비추며 실시간으로 조명 시스템 제어에 성공했습니다.

Romain: Can you greet everyone here in the room now?
AI: "Hello, amazing developers at Fort Mason! We're so excited to have you here for an incredible day."
조명 상태를 인식하고, 장소 정보(Fort Mason)를 활용하며, 적절한 인사말을 생성하는 다층적 처리가 이루어졌습니다.
Cool. All right. Let's go back to normal now.
AI가 조명을 정상 상태로 복원합니다.

Romain은 마지막 시연에서 Codex SDK가 가진 진짜 잠재력을 보여주기로 했습니다.
그는 음성으로 Codex에게 요청합니다:
Romain: “Could you ask Codex to show a credits overlay like at the end of a movie but the cast is the attendees?”
곧바로 Codex는 React 앱 내부에서 필요한 컴포넌트를 생성하고, 모든 개발자 참석자 명단을 자동으로 불러와 영화 엔딩 크레딧처럼 화면 상단에 오버레이를 띄우기 시작합니다.

여기서 중요한 포인트는 Codex SDK가 추가된 순간부터 이 앱이 “실시간으로 재프로그래밍(reprogram)” 가능한 상태가 되었다는 것입니다.
Romain이 설명합니다:
“When I sent a task to the voice agent it also added Codex SDK as a tool. That means now, on the fly, I can reprogram this app in real time and adapt it to user needs or any feedback they have.”
즉, Codex SDK는 단순 API 호출이 아니라 앱 내에서 바로 에이전트를 실행·수정할 수 있는 SDK이기 때문에, 이미 실행 중인 React 앱의 코드베이스를 탐색하고 필요한 부분을 패치해 오버레이나 새로운 기능을 추가할 수 있었습니다.
(참고) Codex SDK의 역할 요약
- 에이전트 임베딩(Agent Embedding): Codex SDK를 앱에 추가하면, 앱 내부에서 Codex 에이전트가 직접 코드베이스를 읽고 수정 가능.
- 실시간 컨텍스트 파악: 현재 열려 있는 React 컴포넌트와 상태를 파악하여 필요한 기능을 정확히 추가.
- 동적 툴링(Dynamic Tooling): MCP 서버, REST API, WebSocket, UI 컴포넌트 생성 등 다양한 액션을 에이전트가 실행.
- 음성 모드 결합: Realtime Voice API와 Codex SDK가 결합해, 음성 명령만으로도 앱을 업데이트하거나 새로운 기능을 시연 가능.
“Great. In the meantime, could you start a countdown and take a photo of all of us?”
Codex는 즉시 카운트다운 UI를 추가하고, 카메라를 제어하여 청중의 사진을 촬영합니다.

조명과 카메라 제어, 그리고 엔딩 크레딧까지—모든 작업이 음성 명령으로 즉석에서 구현되었습니다.

(추가 설명) Romain은 마지막으로 이렇게 강조합니다:
“We took voice, we took devices around us, a sketch, and turned all of this into workable software. All that, without having to write any code by hand.”
이 말은 Codex SDK가 소프트웨어 엔지니어링의 미래를 보여준다는 메시지입니다.
사용자는 가장 복잡한 아이디어와 문제를 제시하면 되고, Codex SDK가 실시간으로 이를 실행 가능한 소프트웨어로 만들어냅니다.

훈련 목적:
에이전트 조정(steering agents)에 정말 뛰어나도록
엔드투엔드 코딩에 탁월하도록
선도적인 코딩 스타트업들이 이를 채택하고 사용 중

이들은 GPT-5를 사용하여:


GPT-5 Pro가 탁월한 영역:
개발자 지원:
특화 도메인:
추천 환경:

새로운 음성 모델 API 출시:

https://platform.openai.com/docs/models/gpt-4o-mini-realtime-preview

https://platform.openai.com/docs/models/gpt-4o-realtime-preview
특징
1. 동일한 품질:
"오늘 우리는 API에서 Sora 2의 프리뷰를 출시합니다."

가격 정보

모델의 제어 가능성(controllability)
상세한 지시사항이 가능해졌습니다.:
결과 품질이 좋아졌습니다.:
다양한 Exand View가 가능.
iPhone 뷰 (좁은 화면)로 시작

Sora에게 프롬프트로 "Make it a wide shot"이라고 요청시,

영상-사운드 페어링 기능의 강화:


마텔 주식회사, 미국 캘리포니아주 엘세군도에 본사를 둔 장난감 및 게임 제조업체

기존 프로세스:
Sora 2 활용:
Sam: "오늘이 여러분에게 만들 새로운 것들에 대한 몇 가지 아이디어를 주었기를 바랍니다."
플랫폼으로서의 OpenAI:
"OpenAI가 이 새로운 빌딩 시대를 위한 훌륭한 플랫폼이 되기를 원합니다."
Sam: "일이 정말 믿을 수 없을 정도로 될 것입니다. 꽤 빨리."
의미:
OpenAI DevDay 2025는 AI 개발의 새로운 시대를 여는 중요한 전환점이었습니다. 주요 발표 내용을 요약하면:
1. Apps SDK - ChatGPT 앱 생태계
2. AgentKit - 에이전트 개발 혁신
3. Codex GA - 소프트웨어 작성의 패러다임 전환
4. 새로운 API 모델들
이번 DevDay는 단순한 기능 업데이트가 아니라, 소프트웨어 개발 방식의 근본적 변화를 보여줍니다:
OpenAI의 비전은 명확합니다: "AI를 모든 사람에게 유용하게 만드는 것."
그리고 그 미래는 이미 시작되었습니다.
후... 엄청난 것들이 많아서 정리가 오래 걸렸는데요 :)
읽어주셔서 감사합니다!!