Daily Briefing

April 30, 2026
2026-04-29
17 articles

Remote agents in Vibe. Powered by Mistral Medium 3.5.

Mistral AI가 클라우드 기반 원격 코딩 에이전트인 Vibe와 복합 작업을 위한 Le Chat의 Work 모드, 그리고 새로운 플래그십 모델 Mistral Medium 3.5를 발표했다.

  • Mistral Vibe의 원격 코딩 에이전트는 클라우드에서 독립적으로 병렬 실행되며, CLI 또는 Le Chat에서 시작할 수 있다.
  • Le Chat의 새로운 Work 모드는 Mistral Medium 3.5 기반의 에이전트를 사용하여 복잡한 다단계 작업을 처리한다.
  • Mistral Medium 3.5는 지시 따르기, 추론, 코딩 기능을 통합한 128B 밀집 모델로, 256k 컨텍스트 창을 지원하며 4개의 GPU로 자체 호스팅 가능하다.
  • 추론 노력은 요청별로 구성 가능하며, 가변 이미지 크기 및 종횡비 처리를 위해 비전 인코더를 처음부터 훈련했다.
Notable Quotes & Details
  • 128B
  • 256k context window
  • 4 GPUs

AI 개발자, 엔지니어, 기업 사용자

DSO: Direct Steering Optimization for Bias Mitigation

Apple Machine Learning Research에서 VLM 및 LLM의 편향 완화를 위한 새로운 강화 학습 기반 활성화 스티어링 방법인 DSO(Direct Steering Optimization)를 제안했다.

  • 생성 모델, 특히 VLM은 입력의 인구 통계학적 특성에 영향을 받아 편향된 결정을 내릴 수 있다.
  • 기존 스티어링 방법은 편향 수정에 어려움을 겪어, DSO는 강화 학습을 사용해 활성화 스티어링을 위한 선형 변환을 찾는다.
  • DSO는 편향 완화와 모델 성능 간의 최첨단 균형을 달성하며, 추론 시점의 제어 기능을 제공한다.
  • 이 연구는 모델 행동을 직접 제어하도록 최적화된 스티어링 전략 설계의 이점을 강조한다.
Notable Quotes & Details
  • January 14, 2025 (Controlling Language and Diffusion Models by Transporting Activations)

AI 연구자, 머신러닝 엔지니어

Adaptive Thinking: Large Language Models Know When to Think in Latent Space

Apple Machine Learning Research에서 LLM의 추론 효율성을 최적화하기 위해 자체 일관성을 활용하여 생각 예산을 적응적으로 할당하는 경량 접근 방식인 Sonata를 소개했다.

  • LLM의 중간 추론(chain-of-thought) 능력에도 불구하고, 최적의 컴퓨팅 효율성을 위한 예산 할당은 아직 제대로 이해되지 않았다.
  • 낮은 자체 일관성이 더 많은 사고가 필요한 쿼리를 나타내는 지표임을 발견했다.
  • Sonata는 캘리브레이션 데이터셋으로 오프라인 훈련된 어댑터를 포함하며, 추론 중 거의 제로에 가까운 오버헤드로 자체 일관성을 예측하고 생각 예산 할당을 안내한다.
  • Sonata는 기존 CoT 압축 방법과 직교하며, Qwen3-8B, GPT-OSS-120B 등 다양한 모델 및 벤치마크에서 20~80%의 사고 토큰 감소 또는 최대 5%의 정확도 향상을 보여주었다.
Notable Quotes & Details
  • 20% to 80% reduction in thinking tokens
  • up to 5% improvement in accuracy
  • Qwen3-8B
  • GPT-OSS-120B
  • Qwen3-235B-A22B
  • Intern-S1-mini
  • AIME24
  • AIME25
  • GSM8K
  • MATH500
  • GPQA

AI 연구자, LLM 개발자

IDC: How EMEA CIOs can jumpstart AI rollouts

IDC는 EMEA 지역 CIO들이 정체된 기업 AI 도입을 재활성화하기 위해 시스템을 적극적으로 감사하고, AI 프로젝트의 가치를 측정하는 새로운 프레임워크를 개발해야 한다고 강조했다.

  • EMEA 지역의 많은 기업 AI 프로젝트가 실행 문제와 재정적 검증 부족으로 인해 지연되거나 축소되고 있다.
  • IDC 연구에 따르면 지난 2년간 AI 프로젝트에서 정량화 가능한 비즈니스 성과를 달성한 조직은 9%에 불과하다.
  • 전통적인 조달 지표는 AI의 간접적인 가치(새로운 수익원 창출, 생산성 향상, 위험 감소)를 측정하는 데 부적합하다.
  • CIO는 ROI 계산 방식을 재정립하여 예측 유지보수 도구와 같은 AI 솔루션의 간접적인 재정적 이점을 포함해야 한다.
Notable Quotes & Details
  • 9% (organizations achieved quantifiable business outcomes)
  • 91% (remaining trapped)

기업 임원, CIO, IT 관리자, AI 전략가

GPT-5.5 is OpenAI’s most capable agentic AI model yet

OpenAI는 GPT-5.5를 출시하며 에이전트 기능을 강화하고 벤치마크에서 뛰어난 성능을 보였으나, API 가격이 GPT-5.4의 두 배로 책정되었다.

  • GPT-5.5는 OpenAI의 가장 강력한 에이전트 AI 모델로, 계획, 도구 사용, 자체 출력 확인이 가능하다.
  • Terminal-Bench 2.0, SWE-Bench Pro, Expert-SWE 등의 벤치마크에서 이전 모델 대비 향상된 성능을 보였다.
  • 특히 MRCR v2 장문 추론에서 74.0%로 GPT-5.4의 36.6%를 크게 상회했다.
  • Claude Opus 4.7이 MCP Atlas 벤치마크에서 79.1%로 선두를 지켰고, GPT-5.5는 해당 벤치마크에 기록되지 않았다.
  • API 접근 가격은 GPT-5.4의 두 배인 백만 입력 토큰당 US$5, 백만 출력 토큰당 US$30이다.
Notable Quotes & Details
  • 2026-04-23
  • Terminal-Bench 2.0
  • 82.7%
  • 75.1%
  • 69.4%
  • SWE-Bench Pro
  • 58.6%
  • Expert-SWE
  • 73.1%
  • 68.5%
  • MRCR v2
  • 1백만 토큰
  • 74.0%
  • 36.6%
  • MCP Atlas
  • 79.1%
  • US$5
  • US$30

AI 연구자, 개발자, 기업 사용자

Self-Hosted LLMs in the Real World: Limits, Workarounds, and Hard Lessons

자체 호스팅 LLM의 실제 운영상 어려움과 제약, 특히 GPU 메모리 부족, 성능 저하, 양자화와 같은 현실적인 문제점들을 다룬다.

  • 자체 호스팅 LLM은 API 비용 절감, 데이터 제어 등의 장점이 있지만, 실제 운영에서는 기술적 어려움에 직면한다.
  • GPU 메모리 부족, 모델 환각 현상 심화, 높은 지연 시간 등 예상치 못한 문제들이 발생할 수 있다.
  • 7B 매개변수 모델은 최소 16GB VRAM을 요구하며, 더 큰 모델은 다중 GPU 설정이나 양자화를 필요로 한다.
  • 양자화는 하드웨어 제약의 일반적인 해결책이지만, FP16에서 INT4로 압축할 경우 모델 품질 저하를 수반할 수 있다.
  • "실행된다"와 "잘 실행된다"의 간극이 크며, 초기 인프라 결정이 프로젝트에 큰 영향을 미친다.
Notable Quotes & Details
  • 7B parameter model
  • 16GB of VRAM
  • 13B
  • 70B
  • FP16
  • INT4

LLM 개발자, MLOps 엔지니어, 데이터 과학자

AI evals are becoming the new compute bottleneck

AI 모델 평가(evals) 비용이 급증하여 새로운 컴퓨팅 병목 현상이 되고 있으며, 이는 평가 수행 주체에 변화를 가져오고 있다.

  • AI 평가 비용이 상당한 임계치를 넘어섰고, 이는 평가 수행 주체와 방식에 영향을 미친다.
  • Holistic Agent Leaderboard(HAL)는 21,730번의 에이전트 롤아웃에 약 4만 달러를 지출했다.
  • 단일 GAIA 실행 비용은 캐싱 전 $2,829에 달하며, Exgentic의 연구는 동일 작업에서 33배의 비용 차이를 발견했다.
  • 과학 ML 분야에서는 새로운 아키텍처 평가에 960 H100-시간이, 전체 벤치마크 스윕에는 3,840 H100-시간이 소요될 수 있다.
  • Stanford CRFM의 HELM(2022)은 모델당 API 비용이 최대 $10,926, GPU 시간은 최대 4,200시간에 달하며, 총 비용은 약 10만 달러로 추정된다.
  • 모델 개발 과정에서 체크포인트 평가가 반복적으로 발생하여 비용을 가중시킨다.
Notable Quotes & Details
  • $40,000
  • 21,730 agent rollouts
  • 9 models
  • 9 benchmarks
  • $2,829
  • 33x cost spread
  • 960 H100-hours
  • 3,840 H100-hours
  • HELM
  • 2022
  • $85
  • $10,926
  • 540 to 4,200 GPU-hours
  • BLOOM (176B)
  • OPT (175B)
  • Granite-13B
  • 1,000 GPU hours
  • $100,000
  • 154 checkpoints
  • 16 models
  • 8 sizes
  • 2,464 checkpoints

AI 연구자, ML 엔지니어, 정책 입안자

Granite 4.1 LLMs: How They’re Built

IBM은 데이터 엔지니어링, 사전 학습, 지도 미세 조정 및 강화 학습을 통해 15조 토큰으로 훈련된 Granite 4.1 LLM 시리즈(3B, 8B, 30B)를 구축하는 과정을 상세히 설명했다.

  • Granite 4.1은 3B, 8B, 30B 파라미터의 밀집형(dense), 디코더 전용 LLM 시리즈이다.
  • 약 15조 토큰으로 다단계 사전 학습 파이프라인을 통해 훈련되었으며, 최대 512K 토큰의 긴 컨텍스트 확장을 포함한다.
  • 지도 미세 조정(4.1M 고품질 샘플)과 온-정책 GRPO with DAPO 손실을 통한 강화 학습으로 더욱 정교화되었다.
  • 8B instruct 모델은 이전 Granite 4.0-H-Small (32B-A9B MoE)을 매개변수가 적은 단순한 아키텍처로 능가하거나 동등한 성능을 보인다.
  • 모든 Granite 4.1 모델은 Apache 2.0 라이선스로 공개되었다.
  • 데이터 품질을 최우선으로 하여 5단계 사전 학습, LLM-as-Judge 프레임워크를 사용한 미세 조정 데이터 큐레이션, 그리고 수학, 코딩, 지시 따르기, 일반 채팅 성능 강화를 위한 다단계 강화 학습 파이프라인이 적용되었다.
Notable Quotes & Details
  • 3B
  • 8B
  • 30B
  • 15T tokens
  • 512K tokens
  • 4.1M high-quality curated samples
  • Yu et al., 2025
  • Granite 4.0-H-Small (32B-A9B MoE)
  • Apache 2.0 license
  • 15 trillion tokens

AI 연구자, ML 엔지니어, LLM 개발자

DeepInfra on Hugging Face Inference Providers 🔥

Hugging Face Hub에 DeepInfra가 새로운 Inference Provider로 추가되어 개발자들이 다양한 AI 모델을 비용 효율적으로 사용할 수 있게 되었다.

  • DeepInfra는 Hugging Face Hub의 지원 Inference Provider로 추가되었다.
  • DeepInfra는 100개 이상의 모델을 지원하는 서버리스 AI 추론 플랫폼이다.
  • LLM, text-to-image, text-to-video, 임베딩 등 다양한 모델 유형을 지원한다.
  • 초기에는 대화 및 텍스트 생성 작업을 지원하며, 향후 더 많은 작업이 추가될 예정이다.
  • 사용자는 API 키를 설정하여 직접 DeepInfra를 사용하거나, Hugging Face를 통해 라우팅하여 사용할 수 있다.
Notable Quotes & Details

AI 개발자, 머신러닝 엔지니어, Hugging Face 사용자

Localisation Engineering Platform

Lingo.dev는 LLM 기반 번역에서 발생하는 용어 오류를 줄이기 위해 Retrieval Augmented Localization (RAL)을 활용한 상태 저장형 번역 API를 출시했다.

  • LLM 기반 번역 시 용어 일관성 유지의 어려움을 해결하기 위해 RAL 개념을 도입했다.
  • 추론 시점에 용어집 컨텍스트를 주입하여 용어 오류를 17-45% 감소시켰다.
  • Lingo.dev의 로컬라이제이션 엔진은 모델 선택, 폴백 체인, 용어집, 브랜드 보이스, 언어별 규칙 등 다양한 기능을 제공한다.
  • 이 엔진은 상태 저장형(stateful)으로, 모든 설정이 요청 전반에 걸쳐 유지된다.
Notable Quotes & Details
  • 17-45%
  • 200M+ words

로컬라이제이션 팀, 번역가, AI 제품 개발자

Triton language for Huawei Ascend

Triton-Ascend는 Triton 컴파일 프레임워크를 화웨이 Ascend NPU에 최적화하여 Triton 코드가 Ascend 하드웨어에서 효율적으로 실행되도록 지원한다.

  • Triton-Ascend는 Ascend 플랫폼을 위한 Triton 컴파일 프레임워크이다.
  • 개발자들이 타일/블록 슬라이싱 모드와 계산 로직에 집중할 수 있도록 지원하며, 컴파일러가 메모리 할당, 데이터 전송 등을 자동으로 처리한다.
  • Ascend NPU에서 Triton 코드를 효율적으로 실행하기 위한 다양한 최적화 기능을 제공한다.
  • Triton Python API의 완성도, 데이터 유형 지원, 메모리 접근 유연성 등을 지속적으로 개선할 계획이다.
  • 현재 버전은 Triton-Ascend 3.2.0이며, 2026년에는 Triton 3.5로 업그레이드할 예정이다.
Notable Quotes & Details
  • Triton-Ascend 3.2.0
  • CANN 8.5.0
  • Triton 3.5 (2026)

AI 개발자, 하드웨어 엔지니어, Huawei Ascend 사용자

Presentation: Agents, Architecture, & Amnesia: Becoming AI-Native Without Losing Our Minds

Tracy Bannon은 "Agents, Architecture, & Amnesia: Becoming AI-Native Without Losing Our Minds" 발표를 통해 AI 자율성의 위험과 "아키텍처 기억 상실증"을 방지하기 위한 최소한의 거버넌스 프레임워크를 제시한다.

  • AI 자율성의 위험성과 봇에서 자율 에이전트로의 전환에 대한 경고를 다룬다.
  • "아키텍처 기억 상실증"을 유발하는 무모한 속도를 지적한다.
  • "최소 실행 가능 거버넌스" 프레임워크를 제시하며, 신원, 위임, ADR(아키텍처 결정 기록)에 중점을 둔다.
  • SDLC 전반에 걸쳐 기계 속도로 기술 부채를 관리하는 방법을 강조한다.
  • QCon AI는 AI 워크로드의 안전한 확장을 위한 엔지니어링 원칙에 초점을 맞춘 행사이다.
Notable Quotes & Details
  • May 12th, 2026
  • May 21st, 2026
  • May 28th, 2026

소프트웨어 아키텍트, AI 개발자, 기술 리더

Sauce Labs Launches AI Agent to Automate Test Creation and Close the DevOps “Velocity Gap”

Sauce Labs가 AI 기반 테스트 자동화 에이전트 'Sauce AI for Test Authoring'을 출시하여 개발자들의 테스트 생성 및 유지보수 부담을 줄이고자 합니다.

  • Sauce AI for Test Authoring은 비즈니스 의도를 실행 가능한 테스트 스위트로 변환하는 AI 기반 에이전트입니다.
  • 자연어를 통해 예상 동작을 설명하면 프레임워크에 구애받지 않는 테스트가 자동으로 생성됩니다.
  • AI를 통한 코드 생성 속도 증대에 비해 테스트가 따라가지 못하는 데브옵스 병목 현상을 해결하는 것이 목표입니다.
  • 기업들은 QA에 IT 예산의 22~25%를 지출하며, 개발자는 테스트 작성 및 유지보수에 30% 이상을 할애하고 있습니다.
  • 이 플랫폼은 코딩 장벽을 제거하여 비기술 직군도 QA에 기여하고, 테스트가 애플리케이션과 함께 지속적으로 학습하고 발전하도록 돕습니다.
Notable Quotes & Details
  • 기업들은 IT 예산의 22%~25%를 QA에 사용
  • 개발자들은 시간의 30% 이상을 테스트 작성 및 유지보수에 할애
  • 복잡한 사용자 여정의 자동화된 테스트 커버리지는 35% 미만

소프트웨어 개발자, QA 엔지니어, DevOps 전문가, 제품 관리자

Mistral AI Introduces Workflows for Orchestrating Enterprise AI Processes

Mistral AI가 기업 AI 모델 및 에이전트의 안정적인 프로덕션 배포를 위한 오케스트레이션 레이어인 'Workflows'를 공개했습니다.

  • Workflows는 Mistral의 Studio 플랫폼의 일부로, 내구성, 관찰 가능성, 결함 허용 범위를 갖춘 다단계 AI 프로세스를 관리합니다.
  • 개발자는 Python으로 워크플로우를 정의하고 모델, 에이전트, 외부 커넥터를 결합할 수 있습니다.
  • 프로덕션 환경에서 AI 파이프라인의 실패, 시간 초과, 수동 개입 필요성 등 일반적인 배포 문제를 해결합니다.
  • 인간 개입(human-in-the-loop)을 위한 승인 체크포인트 기능을 지원하여 워크플로우를 일시 중지하고 재개할 수 있습니다.
  • Temporal 위에 구축되었으며, 오케스트레이션은 Mistral 관리 인프라에서, 실행은 고객 환경에서 분리되어 작동합니다.
Notable Quotes & Details

AI 개발자, 기업 아키텍트, ML 엔지니어

QCon AI Boston 2026 Schedule: Agents in Production, Inference Cost, and AI in the SDLC

QCon AI Boston 2026 컨퍼런스 일정이 공개되었으며, AI 에이전트의 프로덕션 배포, 추론 비용 최적화, 소프트웨어 개발 라이프사이클(SDLC) 내 AI 통합과 관련된 엔지니어링 문제에 중점을 둡니다.

  • QCon AI Boston 2026은 6월 1일부터 2일까지 보스턴 대학교에서 개최됩니다.
  • 컨퍼런스는 AI 데모 이후의 실제 엔지니어링 문제, 즉 에이전트의 프로덕션 도입, 합리적인 추론 비용 유지, 비결정론적 시스템의 감사 가능성 확보 등을 다룹니다.
  • LinkedIn의 Context Engineering 세션은 AI 에이전트가 내부 서비스 및 프레임워크와 작동하는 방식을 다룹니다.
  • Redis의 Beyond Prompting 세션은 프롬프트 반복을 넘어선 프로덕션급 AI 애플리케이션 구축에 필요한 데이터 및 검색 컨텍스트를 설명합니다.
  • Momento의 Serving LLMs at Scale 세션은 KV 캐시가 추론 비용 및 성능에 미치는 영향을 강조합니다.
Notable Quotes & Details
  • QCon AI Boston 2026: 2026년 6월 1-2일
  • Eder Ignatowicz (Red Hat AI 수석 소프트웨어 엔지니어 및 아키텍트)
  • Ajay Prakash (LinkedIn 선임 소프트웨어 엔지니어)
  • Ricardo Ferreira (Redis 개발자 관계 리드)
  • Khawaja Shams (Momento 공동 설립자 및 CEO)

AI 엔지니어, 소프트웨어 아키텍트, 데이터 과학자, 기술 리더

SAP-Related npm Packages Compromised in Credential-Stealing Supply Chain Attack

SAP 관련 npm 패키지들이 'Mini Shai-Hulud'라는 이름의 자격 증명 탈취 공급망 공격에 노출되어 개발자 자격 증명 및 클라우드 비밀 정보가 유출될 위험에 처했습니다.

  • 여러 보안 연구 기관에서 SAP 관련 npm 패키지를 겨냥한 새로운 공급망 공격 캠페인에 대해 경고했습니다.
  • 공격은 'Mini Shai-Hulud'로 불리며, SAP의 JavaScript 및 클라우드 애플리케이션 개발 생태계와 관련된 패키지에 영향을 미쳤습니다.
  • 손상된 버전에는 설치 시 새로운 동작을 도입하는 'preinstall' 스크립트가 포함되어, GitHub Releases에서 플랫폼별 Bun ZIP을 다운로드하여 실행합니다.
  • 악성코드는 로컬 개발자 자격 증명, GitHub 및 npm 토큰, GitHub Actions 비밀, AWS, Azure, GCP, Kubernetes의 클라우드 비밀 정보를 수집하도록 설계되었습니다.
  • 탈취된 데이터는 암호화되어 공격 대상 계정으로 생성된 공용 GitHub 저장소로 유출되며, 현재 1,100개 이상의 관련 저장소가 확인되었습니다.
Notable Quotes & Details
  • 발견일: 2026년 4월 29일 09:55 UTC ~ 12:14 UTC
  • 1,100개 이상의 관련 GitHub 저장소 확인

소프트웨어 개발자, 보안 엔지니어, 시스템 관리자, 기업 IT 관리자

LiteLLM CVE-2026-42208 SQL Injection Exploited within 36 Hours of Disclosure

LiteLLM Python 패키지의 심각한 SQL Injection 취약점(CVE-2026-42208)이 공개 36시간 이내에 실제로 악용되기 시작했다.

  • LiteLLM Python 패키지의 CVE-2026-42208 SQL Injection 취약점이 공개 후 36시간 만에 악용 사례가 발견되었다.
  • CVSS 점수 9.3의 이 취약점은 LiteLLM 프록시 데이터베이스 수정으로 이어질 수 있다.
  • 공격자는 특수 제작된 Authorization 헤더를 통해 LLM API 라우트에 접근, 데이터베이스를 읽거나 수정하여 프록시 및 관리되는 자격 증명에 무단 접근할 수 있다.
  • 2026년 4월 19일 버전 1.83.7-stable에서 패치되었으나, 4월 26일 첫 악용 시도가 기록되었다.
  • 공격자는 주로 LiteLLM 프록시의 LLM 공급자 키 및 런타임 환경 관련 데이터베이스 테이블을 노렸다.
Notable Quotes & Details
  • CVE-2026-42208
  • CVSS score: 9.3
  • 36 hours
  • version 1.83.7-stable (released April 19, 2026)
  • first exploitation attempt recorded on April 26 at 16:17 UTC
  • 65.111.27[.]132
  • "A database query used during proxy API key checks mixed the caller-supplied key value into the query text instead of passing it as a separate parameter"
  • "An unauthenticated attacker could send a specially crafted Authorization header to any LLM API route (for example, POST /chat/completions) and reach this query through the proxy's error-handling path. An attacker could read data from the proxy's database and may be able to modify it, leading to unauthorized access to the proxy and the credentials it manages."
  • "Malicious activity fell into two phases driven by the same operator across two adjacent egress IPs, followed by a brief unauthenticated probe of the key-management endpoints"
  • "litellm_credentials.credential_values"
  • "litellm_config"

보안 연구원, 개발자, 시스템 관리자

Jooojub
System S/W engineer
Explore Tags
Series
    Recent Post
    © 2026. jooojub. All right reserved.