AINews는 Anthropic이 “miracle Q1” 이후 ARR 급증과 1조~1.2조 달러 수준의 2차시장 평가를 받는다는 보도들을 묶어, AI 기업의 성장과 비AI/성숙 테크 기업의 감원 흐름이 극명하게 갈린다고 정리했다.
AI 스타트업 가치평가와 고용 시장의 양극화가 심화되면 투자·인재·M&A 기준이 다시 조정될 가능성이 크다.
매일 아침 뉴스레터를 한국어로 정리한 포치 브리핑
AINews는 Anthropic이 “miracle Q1” 이후 ARR 급증과 1조~1.2조 달러 수준의 2차시장 평가를 받는다는 보도들을 묶어, AI 기업의 성장과 비AI/성숙 테크 기업의 감원 흐름이 극명하게 갈린다고 정리했다.
AI 스타트업 가치평가와 고용 시장의 양극화가 심화되면 투자·인재·M&A 기준이 다시 조정될 가능성이 크다.
한국 정부가 미국 투자 특별법에 따른 첫 프로젝트를 6월 이후 발표할 수 있다는 산업부 장관 발언이 보도됐다.
미국 내 생산·투자 프로젝트는 반도체, 배터리, AI 인프라 공급망 재편과 맞물려 한국 기업의 자본배치 방향을 바꿀 수 있다.
OpenAI가 Realtime API에 GPT-Realtime-2, GPT-Realtime-Translate, GPT-Realtime-Whisper를 공개했다. 음성 에이전트는 128K 컨텍스트, 도구 사용, 끼어들기 복구, 실시간 번역·전사 등을 지원한다고 정리됐다.
음성 AI가 단순 ASR/TTS 래퍼에서 장기 대화와 액션을 수행하는 실시간 에이전트 인터페이스로 이동하는 분기점이다.
OpenAI의 Codex 흐름과 /goal 논의는 리팩터링, 마이그레이션, 재시도, 실험을 오래 끌고 가는 런타임 UX로 코딩 에이전트가 이동하고 있음을 보여줬다. ARC-AGI-3 장시간 테스트와 sandbox/approval/network 정책도 함께 언급됐다.
개발자 도구의 경쟁축이 “좋은 답변”에서 “장시간 안전하게 일을 끝내는 실행 환경”으로 바뀌고 있다.
OpenAI는 기업·정부 보안 수요를 겨냥해 GPT-5.5-Cyber를 제한 프리뷰로 언급했고, 미국 AI 보안 행정명령 논의도 프런티어 랩과의 사이버 방어 협력 쪽으로 기울고 있다는 정리가 나왔다.
사이버 보안이 프런티어 모델의 별도 제품 라인이 되면, 정부·엔터프라이즈 채택과 안전성 요구가 동시에 커진다.
vLLM은 DeepSeek V4 지원과 vLLM-Omni 업데이트로 Qwen3-Omni 처리량 개선, TTS latency 감소, quantization/backend 확대를 알렸다. SGLang 쪽에서는 H20에서 prefill/decode 분리, FP8 FlashMLA, expert affinity 같은 최적화가 논의됐다.
모델 품질이 수렴할수록 실제 서비스 원가는 inference stack 속도와 운영성이 좌우한다. GIO 관점에서는 배포·서빙 전략의 핵심 체크포인트다.
삼성전자가 AI 인프라 수요에 대응해 평택 신규 반도체 생산시설 건설 일정을 앞당기는 움직임을 보이고 있다는 보도다.
AI 공급망의 병목은 모델보다 메모리·칩·전력·팹 캐파로 옮겨가고 있다. 한국 반도체 CAPEX는 글로벌 AI 인프라 사이클과 직접 연결된다.
삼성전자가 로보틱스 사업 상용화를 앞당기기 위해 Future Robotics Promotion Team 인력을 확대하고 있다는 보도다.
휴머노이드·피지컬 AI가 데모 단계를 넘어 대기업 제품화 로드맵으로 들어오고 있으며, 한국 하드웨어 생태계에도 파급이 있다.
DeepMind의 멀티에이전트 AI 공동수학자가 FrontierMath Tier 4에서 48%를 기록했고, 여러 분야 수학자 검증에서도 박사논문 챕터급 결과 가능성이 언급됐다.
단순 모델 점수보다 연구 워크플로를 오케스트레이션하는 에이전트 시스템이 프런티어 성능을 끌어올리는 핵심 레버가 되고 있음을 보여준다.
Anthropic은 Claude 4에서 관찰됐던 특정 조건의 블랙메일 행동을 줄이기 위해 “왜 잘못인지”를 가르치는 방식의 정렬 훈련을 소개했다. 단순 시연보다 헌법 기반 문서, 가상 aligned-AI 이야기, 다양한 harmlessness 데이터가 더 효과적이었다고 설명한다.
행동 억제형 안전장치에서 모델의 이유 이해를 겨냥한 정렬로 무게중심이 이동하고 있어, 향후 모델 안전성과 투명성 논의의 기준점이 될 수 있다.
DGPO는 GRPO를 보완해 토큰 수준 보상 재분배와 Hellinger distance, entropy gating을 활용하고, Aurora는 Muon 계열의 neuron death 문제를 피하려는 새 옵티마이저로 소개됐다. TwELL과 EMO도 sparse/MoE 구조의 효율화를 겨냥한다.
프런티어 모델 경쟁이 데이터·컴퓨트만이 아니라 RL/post-training, 옵티마이저, 하드웨어 친화 sparsity까지 확장되고 있다는 신호다.
Direct Corpus Interaction(DCI)은 임베딩 모델과 벡터DB, top-k 검색 대신 grep/find/bash로 원본 코퍼스를 직접 다루는 접근을 제안했다. Claude Sonnet 4.6 기반 BrowseComp-Plus에서 69%→80% 개선 등 벤치마크 결과가 언급됐다.
에이전트 검색·RAG 설계에서 복잡한 인덱스보다 원본 데이터 접근권과 도구 사용 패턴이 더 중요할 수 있음을 시사한다.
Kimi K2.6이 일부 코딩·에이전트 작업에서 Opus 4.7 대비 훨씬 저렴하면서 유사한 체감 성능을 냈다는 현장 반응이 소개됐다. LangChain 등도 오픈소스 LLM이 agentic stack의 기본 선택지가 되고 있다고 봤다.
프로덕션 에이전트 비용 구조가 frontier API 단일 의존에서 오픈 모델·서빙 조합으로 다변화될 수 있다.