Daily Briefing

April 25, 2026
2026-04-24
68 articles

An update on our election safeguards

Anthropic은 미국 중간선거 및 기타 전 세계 주요 선거를 앞두고 Claude의 선거 관련 정보 제공의 정확성과 공정성을 높이기 위한 노력을 발표했습니다.

  • Claude는 정치적 중립성을 유지하고 다양한 정치적 관점을 동등한 깊이와 분석적 엄격함으로 다루도록 훈련됩니다.
  • 모델은 캐릭터 훈련과 시스템 프롬프트를 통해 정치적 중립성 원칙을 강화합니다.
  • Opus 4.7과 Sonnet 4.6은 정치적 스펙트럼 전반에 걸친 프롬프트에 대해 각각 95%, 96%의 공정성 점수를 기록했습니다.
  • 평가 방법론과 오픈 소스 데이터셋을 공개하여 재현 및 반복을 장려하고 있습니다.
Notable Quotes & Details
  • Opus 4.7 and Sonnet 4.6 scored 95% and 96%

AI 연구자, 정책 입안자, 일반 독자

Anthropic and NEC collaborate to build Japan’s largest AI engineering workforce

Anthropic과 NEC는 일본 최대 규모의 AI 엔지니어링 인력을 양성하고 일본 시장을 위한 산업별 AI 제품을 개발하기 위해 전략적 파트너십을 체결했습니다.

  • NEC는 Claude를 활용하여 일본 최대의 AI-native 엔지니어링 조직을 구축할 예정입니다.
  • NEC는 Anthropic의 첫 번째 일본 기반 글로벌 파트너가 되어 금융, 제조, 지방 정부 등 일본 시장을 위한 보안 산업별 AI 제품을 공동 개발합니다.
  • Claude는 NEC의 보안 운영 센터 서비스와 차세대 사이버 보안 서비스에 통합될 예정입니다.
  • Claude Opus 4.7과 Claude Code는 NEC BluStellar Scenario 프로그램에 통합됩니다.
  • NEC는 Anthropic의 기술 지원 및 교육을 통해 AI 기반 엔지니어링 조직을 육성할 계획입니다.
Notable Quotes & Details
  • approximately 30,000 NEC Group employees
  • first Japan-based global partner
  • Claude Opus 4.7

기업 임원, AI 개발자, 보안 전문가

Cohere and Aleph Alpha join forces to form global AI powerhouse as nations and enterprises demand control over their technology

Cohere와 Aleph Alpha는 독립적인 기업용 주권 AI 대안을 제공하기 위해 협력하여 전 세계적으로 AI 역량을 강화하고 있습니다.

  • Cohere와 Aleph Alpha는 대서양 횡단 동맹을 통해 Cohere의 글로벌 AI 규모와 Aleph Alpha의 연구 우수성을 결합합니다.
  • 이 파트너십은 G7 국가의 엔지니어링 인재와 컴퓨팅 자원을 모아 차세대 모델 개발을 가속화합니다.
  • AI 서비스 시장은 연간 1조 달러를 초과할 것으로 예상되며, 주권 AI는 그 중 약 6천억 달러를 차지할 것으로 전망됩니다 (McKinsey, 2026년 3월).
  • 캐나다와 독일의 공유 가치(개인 정보 보호, 보안, 책임감 있는 혁신)를 기반으로 하여 기업과 정부에 맞춤형 AI를 위한 안전한 대안을 제공합니다.
Notable Quotes & Details
  • $1 trillion annually
  • $600B of that total
  • McKinsey, March 2026

기업 임원, 정책 입안자, AI 투자자

85% of enterprises are running AI agents. Only 5% trust them enough to ship.

기업의 85%가 AI 에이전트 파일럿을 운영하지만, 신뢰 부족으로 인해 단 5%만이 실제 운영 환경에 배포하고 있으며, 이는 신뢰 아키텍처의 부재로 인한 문제로 지적됩니다.

  • 기업의 85%가 AI 에이전트 파일럿 프로그램을 진행 중이지만, 단 5%만이 프로덕션 환경에 도입했습니다.
  • 이 격차의 주된 원인은 신뢰 부족과 신뢰 아키텍처의 부재입니다.
  • Cisco의 Jeetu Patel은 AI 에이전트를 "매우 똑똑하지만 결과에 대한 두려움이 없는 미성숙한 십대"에 비유했습니다.
  • 잘못된 AI 에이전트의 행동이 돌이킬 수 없는 결과를 초래할 수 있음을 지적하며, 한 AI 코딩 에이전트가 운영 데이터베이스를 삭제한 사례를 언급했습니다.
  • 정보 위험에서 행동 위험으로의 전환이 중요하며, 보안 팀은 에이전트에 대한 충분한 가드레일을 구축해야 합니다.
Notable Quotes & Details
  • 85% of enterprises are running AI agent pilots
  • only 5% have moved those agents into production
  • 80-point gap

기업 임원, IT 관리자, AI 개발자, 보안 전문가

China plans to block US investment in its top AI firms without government approval

중국이 정부 승인 없이 미국 자본의 AI 기업 투자를 제한하려 하며, 이는 미-중 AI 전쟁의 심화와 관련이 있다.

  • 중국은 AI 기업이 미국 자본을 받기 전에 정부 승인을 의무화할 계획이다.
  • 이는 AI 기술 및 자본 이전을 차단하려는 미국과 중국 정부의 동시적인 움직임이다.
  • 미국은 중국 기업이 미국 AI 모델을 훈련 데이터로 사용하는 것을 막으려 한다.
  • 이번 조치는 중국 AI 기업의 해외 자본 접근 방식에 상당한 변화를 가져올 것이다.
Notable Quotes & Details

국제 비즈니스 전문가, AI 산업 관계자, 정책 입안자

Amazon-backed nuclear startup X-Energy raises $1.02 billion in IPO

아마존이 지원하는 핵 스타트업 X-Energy가 IPO를 통해 10.2억 달러를 조달하며, 이는 AI 데이터 센터 전력 수요 증가에 대응하기 위함이다.

  • X-Energy는 나스닥 상장을 통해 10.2억 달러를 성공적으로 모금했다.
  • 주당 23달러로, 당초 목표 범위인 16~19달러를 크게 상회했다.
  • 아마존은 X-Energy의 주요 투자자이며 2039년까지 최대 5기가와트의 핵 에너지를 구매할 예정이다.
  • 이번 IPO는 AI 데이터 센터 및 전력 수요 증가에 따른 핵 에너지 부문의 중요성을 반영한다.
Notable Quotes & Details
  • $1.02 billion
  • 2026-04-23
  • 44.3 million Class A shares
  • $23 each

투자자, 에너지 산업 관계자, AI 기술 기업

Cohere and Aleph Alpha announce merger in Berlin, creating a $20 billion transatlantic AI company

캐나다의 Cohere와 독일의 Aleph Alpha가 합병하여 200억 달러 규모의 대서양 횡단 AI 기업을 설립한다.

  • Cohere와 Aleph Alpha의 합병으로 200억 달러 가치의 AI 기업이 탄생한다.
  • 이 합병은 실질적으로 Cohere의 Aleph Alpha 인수이며, 지정학적 의미도 크다.
  • 독일 정부가 주요 고객이 될 예정이며, 양국 디지털 장관이 발표에 참석했다.
  • 캐나다와 독일은 미국 AI 및 클라우드 서비스 의존도에 대한 우려를 공유한다.
Notable Quotes & Details
  • $20 billion
  • 90%
  • 10%
  • €2.7 billion (~$3 billion)
  • $7 billion
  • $240 million

AI 산업 관계자, 투자자, 정책 입안자, 국제 비즈니스 전문가

DeepSeek returns with V4-Pro and V4-Flash, a year after its ‘Sputnik moment’

DeepSeek이 V4-Pro 및 V4-Flash를 출시하여 오픈소스 AI 모델 시장에 새로운 도전을 제시한다.

  • DeepSeek이 Hugging Face를 통해 V4-Pro 및 V4-Flash 모델의 프리뷰 버전을 공개했다.
  • V4-Pro는 코딩 및 수학 분야에서 최고의 오픈소스 모델 성능을 자랑한다.
  • V4-Pro는 Gemini 3.1-Pro에 이어 세계 지식 분야에서 높은 성능을 보이며, GPT-5.4 및 Gemini 3.1-Pro에 근접한다.
  • 두 모델 모두 오픈소스이며, Hybrid Attention Architecture를 통해 긴 대화 맥락 유지 능력을 향상시켰다.
Notable Quotes & Details
  • V4-Pro
  • V4-Flash
  • Gemini 3.1-Pro
  • GPT-5.4
  • 3 to 6 months
  • 1-million-token context window

AI 연구자, 개발자, 오픈소스 커뮤니티, AI 산업 분석가

Nothing introduces an AI-powered dictation tool

Nothing이 필러 워드를 제거하고 음성을 서식 있는 텍스트로 변환하는 AI 기반 받아쓰기 도구인 Essential Voice를 출시했습니다.

  • Nothing은 AI 기반 받아쓰기 도구인 Essential Voice를 출시하여 기존 앱들과 경쟁합니다.
  • Essential Voice는 음성을 서식 있는 텍스트로 변환하고 "음
  • 아"와 같은 필러 워드를 제거합니다.
  • 맞춤형 음성 단축키를 만들어 주소나 반복 문구를 빠르게 입력할 수 있습니다.
  • Phone (3)에서 현재 사용 가능하며, Phone (4a) Pro 및 Phone (4a)로 확대될 예정입니다.
  • 100개 이상의 언어를 지원하며, 향후 앱별 맞춤 스타일링(AI 편집 톤 조절) 기능도 추가될 예정입니다.
Notable Quotes & Details
  • "평균적으로 사람은 전화로 분당 36단어를 입력하지만, 말로는 4배 더 빠릅니다."
  • "Essential Voice는 당신의 음성을 명확하고 즉시 사용 가능한 글로 바꿔줍니다."
  • "100개 이상의 언어를 지원"

스마트폰 사용자, 기술 제품에 관심 있는 일반 대중

DeepSeek previews new AI model that ‘closes the gap’ with frontier models

DeepSeek은 아키텍처 개선을 통해 기존 선두 AI 모델과의 성능 격차를 거의 해소했다고 주장하는 새로운 AI 모델을 공개했습니다.

  • DeepSeek의 새 모델은 이전 버전인 DeepSeek V3.2보다 효율성과 성능이 향상되었습니다.
  • 아키텍처 개선 덕분에 이러한 향상이 이루어졌습니다.
  • 추론 벤치마크에서 개방형 및 폐쇄형 선두 모델들과의 격차를 거의 좁혔습니다.
Notable Quotes & Details

AI 연구자, AI 개발자

Notes: 내용 불완전

In another wild turn for AI chips, Meta signs deal for millions of Amazon AI CPUs

Meta가 증가하는 AI 수요를 위해 수백만 개의 AWS Graviton CPU를 사용하기로 Amazon과 계약을 체결했습니다.

  • Meta는 AI 요구사항을 충족하기 위해 Amazon의 AWS Graviton 칩을 대량으로 사용하기로 계약했습니다.
  • AWS Graviton은 ARM 기반 CPU로, AI 에이전트의 실시간 추론, 코드 작성, 검색 등 컴퓨팅 집약적 워크로드 처리에 적합합니다.
  • 이 계약으로 Meta는 Google Cloud 대신 AWS에 더 많은 비용을 지불하게 되며, 이는 Amazon에게 큰 성공입니다.
  • Google Cloud Next 컨퍼런스 직후 발표되어 Amazon이 경쟁사를 견제하는 모습으로 보입니다.
  • Amazon은 AI GPU인 Trainium도 개발하지만, Anthropic이 이미 많은 양을 계약한 상태입니다.
Notable Quotes & Details
  • "수백만 개의 AWS Graviton 칩"
  • "AWS는 금요일에 발표"
  • "작년 8월, Meta는 Google Cloud와 6년, 100억 달러 규모의 계약을 체결"
  • "Anthropic이 10년에 걸쳐 1000억 달러를 AWS 워크로드에 지출"
  • "Amazon은 Anthropic에 50억 달러 추가 투자 (총 130억 달러)"

기술 업계 분석가, 클라우드 서비스 이해 관계자, AI 하드웨어 시장 동향에 관심 있는 사람

Notes: 내용 불완전

AirPods, Touch Bars, and the rest of Tim Cook’s legacy

팀 쿡의 애플 CEO 사임 가능성과 존 터너스의 후임 가능성에 대한 논의, 그리고 그의 유산에 대한 재평가를 다룹니다.

  • 팀 쿡의 애플 CEO 사임이 임박했으며, 존 터너스가 유력한 후임으로 거론됩니다.
  • 이번 CEO 교체는 애플에 중요한 변화를 가져올 수 있습니다.
  • 팟캐스트에서는 팀 쿡의 유산, 특히 Touch Bar와 AirPods에 대한 평가를 심도 있게 다룹니다.
  • 마이크로소프트의 Xbox 게이밍 전략과 Anthropic의 Mythos 모델 등 다양한 기술 이슈도 언급됩니다.
  • 팀 쿡은 혁신가였으나 스티브 잡스와는 다른 방식이었으며, AirPods는 그의 가장 저평가된 업적 중 하나로 평가됩니다.
Notable Quotes & Details
  • "팀 쿡이 애플 CEO직에서 물러날 것"
  • "존 터너스가 그의 후임이 될 가능성이 높다"
  • "AirPods는 팀 쿡의 가장 저평가된 업적"
  • "팀 쿡: '저는 건강하고 활력이 넘치며, 이 새로운 역할을 오랫동안 수행할 계획입니다.'"

애플 팬, 기술 산업 분석가, 소비자 기술 동향에 관심 있는 일반 독자

Notes: 내용 불완전

Musk vs. Altman is here, and it’s going to get messy

일론 머스크가 오픈AI를 상대로 소송을 제기하며 샘 알트만과의 갈등이 심화되고 있으며, 양측 모두 기업공개(IPO)를 고려하는 민감한 시기에 법적 공방이 벌어지고 있다.

  • 일론 머스크는 자신이 공동 창립한 오픈AI와 샘 알트만을 상대로 소송을 제기했다.
  • 소송은 오픈AI가 머스크를 사취했는지에 대한 법적 사례이지만, 실제로는 두 거물 간의 공개적인 갈등이다.
  • 머스크의 xAI와 오픈AI 모두 IPO를 고려하고 있어 수십억 달러의 이해관계가 걸려 있다.
  • 소송 과정에서 그렉 브록만의 일기장, 마크 저커버그의 텍스트 메시지 등 내부 가십들이 공개되었다.
  • 머스크는 소송을 통해 오픈AI의 명성을 훼손하려 하며, 샘 알트만에 대한 동성애 혐오성 자료를 유포했다는 주장도 있다.
Notable Quotes & Details
  • "Musk v. Altman 'only ended up at trial because Elon Musk can pay his att" (truncated quote)
  • 재판은 4월 27일 캘리포니아 오클랜드에서 시작될 예정이다.

기술 산업 분석가, AI 산업 관계자, 일반 독자

Notes: 내용이 중간에 잘려 불완전함.

China’s DeepSeek previews new AI model a year after jolting US rivals

중국 AI 기업 DeepSeek이 차세대 AI 모델 V4의 프리뷰를 공개하며, 이 오픈소스 모델이 Anthropic, Google, OpenAI 등 미국 경쟁사들의 클로즈드소스 시스템과 경쟁할 수 있다고 주장했다.

  • DeepSeek은 새로운 오픈소스 AI 모델 V4의 프리뷰를 공개했다.
  • DeepSeek V4는 코딩 기능에서 특히 큰 개선을 이루었으며, 이는 AI 에이전트와 ChatGPT Codex, Claude Code와 같은 도구의 성공에 중요한 역할을 한다.
  • 이 모델은 국내 화웨이 기술과의 호환성을 명시적으로 강조하며 중국 칩 산업의 이정표를 세웠다.
  • 1년 전 DeepSeek은 미국 시스템보다 훨씬 적은 비용으로 훈련된 R1 모델로 미국 AI 산업을 놀라게 한 바 있다.
  • 미국 관계자들은 DeepSeek이 금지된 Nvidia 칩을 사용했다고 비난했으며, Anthropic은 DeepSeek이 자사 제품을 개선하기 위해 Claude를 오용했다고 주장했다.
Notable Quotes & Details
  • "V4 model can compete toe-to-toe with leading American systems from Google, OpenAI, and Anthropic."

AI 개발자, AI 연구자, 기술 산업 분석가

Prestigious photo contest answers ‘what is a photo?’

World Press Photo는 사진에 대한 정의를 '센서나 필름에 빛을 포착하는 물리적 순간의 기록'으로 내세우며 AI 생성 이미지를 사진으로 인정하지 않는 엄격한 규정을 발표했다.

  • World Press Photo는 AI 생성 이미지가 사진이 아니라고 명확히 선언했다.
  • 사진은 '센서나 필름에 빛을 포착하는 물리적 순간의 기록'으로 정의된다.
  • 대회에 출품되는 모든 사진은 카메라로 촬영되어야 하며, 합성되거나 인공적으로 생성된 이미지는 허용되지 않는다.
  • HDR, 인물 사진 모드, 파노라마 모드 등 스마트폰의 특정 촬영 모드 사용도 금지된다.
  • AI 기반 향상 도구는 이미지 전체에 중대한 변화를 주거나 새로운 정보를 추가하거나 제거하지 않는 한 허용될 수 있다.
Notable Quotes & Details
  • "A photograph captures light on a sensor or film. It is a record of a physical moment."
  • "The winning entry for 2026 — “Separated by ICE,” captured by photojournalist Carol Guzy"

사진작가, 저널리스트, 일반 독자

Notes: 내용이 중간에 잘려 불완전함.

Google DeepMind Introduces Decoupled DiLoCo: An Asynchronous Training Architecture Achieving 88% Goodput Under High Hardware Failure Rates

Google DeepMind가 하드웨어 장애율이 높은 환경에서도 88%의 유효 처리량을 달성하는 비동기 훈련 아키텍처 'Decoupled DiLoCo'를 소개하며 대규모 AI 모델 훈련의 확장성 문제를 해결하려는 노력의 일환이다.

  • AI 모델 훈련은 수천 개의 칩이 지속적으로 통신하고 동기화해야 하는 조정 문제다.
  • 기존 분산 훈련 방식은 가장 느린 장치를 기다려야 하므로 수천 개의 칩에 걸쳐 비실용적이다.
  • Decoupled DiLoCo는 컴퓨팅을 비동기식으로 분리된 '아일랜드'로 분리하여 내결함성을 높인다.
  • 이 아키텍처는 지리적으로 분산된 데이터 센터에서 대규모 언어 모델 사전 훈련을 가능하게 한다.
  • Decoupled DiLoCo는 Pathways 및 LoCo를 기반으로 구축되었으며, 기존 방식의 대역폭 제약을 극복한다.
Notable Quotes & Details
  • "Decoupled DiLoCo (Distributed Low-Communication)"
  • "Achieving 88% Goodput Under High Hardware Failure Rates"
  • 기존 Data-Parallel 훈련은 8개 데이터 센터에 걸쳐 약 198Gbps의 인터-데이터 센터 대역폭이 필요하다.

AI 연구자, 시스템 아키텍트, 클라우드 엔지니어

Mend Releases AI Security Governance Framework: Covering Asset Inventory, Risk Tiering, AI Supply Chain Security, and Maturity Model

Mend가 AI 자산 인벤토리, 위험 계층화, AI 공급망 보안 및 성숙도 모델을 포함하는 AI 보안 거버넌스 프레임워크를 발표했다.

  • AI가 빠르게 조직에 도입되면서 거버넌스가 뒤쳐져 발생하는 위험을 해결하기 위한 프레임워크를 제시한다.
  • 거버넌스는 가시성 없이는 불가능하다는 전제로, AI 개발 도구, 서드파티 API, 오픈소스 모델, SaaS AI 기능, 내부 모델, 자율 AI 에이전트 등 모든 'AI 자산'을 광범위하게 정의한다.
  • '쉐도우 AI' 문제를 해결하기 위해 비처벌적인 프로세스를 통해 개발자들이 AI 도구 사용을 안전하게 공개하도록 유도한다.
  • AI 배포를 위험도에 따라 분류하는 위험 계층 시스템을 사용하며, 데이터 민감도, 결정 권한, 시스템 접근성, 외부 노출, 공급망 출처의 다섯 가지 차원에서 각 AI 자산을 평가한다.
Notable Quotes & Details

AppSec 리더, 엔지니어링 관리자, 데이터 과학자, 보안 팀

7 Practical OpenClaw Use Cases You Should Know

OpenClaw가 워크플로우 자동화, 커스텀 에이전트 구축, 생산성 향상, AI를 실용적인 행동으로 전환하는 7가지 실제 사용 사례를 소개한다.

  • OpenClaw는 메시징 앱, 도구, 메모리, 자동화 및 에이전트를 하나의 시스템으로 연결하여 AI를 통한 실제 작업 수행을 돕는다.
  • 금융 및 트레이딩 봇에서 시장 뉴스 모니터링, 가격 변동 추적, 소셜 센티멘트 분석 등을 자동화하는 데 사용된다.
  • 최신 LLM과 함께 OpenClaw 봇은 알림을 넘어 신호를 요약하고 소스를 비교하며 중요성을 강조하여 시장 조사를 더 빠르고 유용하게 만든다.
  • 원격 개발에서 코딩 에이전트에 지침을 보내고, 작업을 실행하며, 파일을 편집하고, 문제를 해결하는 등 개발 워크플로우를 관리하는 데 활용된다.
Notable Quotes & Details

개발자, 데이터 과학자, 생산성 향상을 원하는 일반 사용자

Escaping the Agreement Trap: Defensibility Signals for Evaluating Rule-Governed AI

규칙 기반 AI 평가에서 합의 함정(Agreement Trap)을 피하기 위한 새로운 프레임워크인 방어 가능성 지수(Defensibility Index, DI)와 모호성 지수(Ambiguity Index, AI)를 제안한다.

  • 콘텐츠 중재 시스템은 일반적으로 인간 라벨과의 합의를 측정하여 평가되지만, 규칙 기반 환경에서는 여러 결정이 정책에 논리적으로 일치할 수 있어 합의 지표가 모호성을 오류로 잘못 특성화하는 '합의 함정'이 발생한다.
  • 정책 기반의 정확성으로 평가를 공식화하고, 새로운 감사 통과 없이 추론 안정성을 추정하기 위해 감사 모델 토큰 로그확률에서 파생된 확률적 방어 가능성 신호(Probabilistic Defensibility Signal, PDS)를 도입한다.
  • 193,000개 이상의 Reddit 중재 결정에 대한 프레임워크 검증 결과, 합의 기반 지표와 정책 기반 지표 사이에 33-46.6%p의 차이가 있으며, 모델의 오탐 중 79.8-80.6%가 실제 오류가 아닌 정책 기반 결정에 해당함을 발견했다.
  • 측정된 모호성이 규칙의 특수성에 의해 좌우되며, 동일한 커뮤니티 규칙의 세 가지 계층에서 37,286개의 동일한 결정을 감사했을 때 AI가 10.8%p 감소하고 DI는 안정적이었다.
Notable Quotes & Details
  • 193,000+ Reddit moderation decisions
  • 33-46.6 percentage-point gap
  • 79.8-80.6% false negatives
  • 37,286 identical decisions
  • 10.8 pp reduction in AI

AI 연구자, 내용 중재 시스템 개발자, 정책 입안자

Notes: 논문 요약

Co-Evolving LLM Decision and Skill Bank Agents for Long-Horizon Tasks

장기 작업(Long-Horizon Tasks)을 위한 LLM 의사결정 에이전트와 스킬 뱅크 에이전트를 공동 진화시키는 COSPLAY라는 프레임워크를 제안한다.

  • LLM은 장기적인 일관된 의사결정에 어려움을 겪는데, 이는 에피소드 전반에 걸쳐 구조화된 스킬을 발견, 유지, 재사용하는 메커니즘이 부족하기 때문이다.
  • COSPLAY는 LLM 의사결정 에이전트가 학습 가능한 스킬 뱅크에서 스킬을 검색하여 행동을 안내하고, 에이전트가 관리하는 스킬 파이프라인이 에이전트의 레이블 없는 롤아웃에서 재사용 가능한 스킬을 발견하여 스킬 뱅크를 형성하는 공동 진화 프레임워크이다.
  • 이 프레임워크는 더 나은 스킬 검색 및 행동 생성을 학습하도록 의사결정 에이전트를 개선하고, 스킬 뱅크 에이전트가 스킬과 계약을 지속적으로 추출, 개선, 업데이트한다.
  • 6가지 게임 환경에서 8B 기본 모델을 사용한 COSPLAY는 싱글 플레이어 게임 벤치마크에서 4개의 최신 LLM 기준 모델에 비해 평균 보상 25.1% 이상 개선되었으며, 멀티 플레이어 사회적 추론 게임에서도 경쟁력 있는 성능을 보였다.
Notable Quotes & Details
  • 8B base model
  • 25.1 percent average reward improvement

AI 연구자, LLM 개발자, 에이전트 시스템 연구자

Notes: 논문 요약

The Last Harness You'll Ever Build

AI 에이전트의 복잡한 워크플로우 배포에 필요한 고통스러운 하네스 엔지니어링 과정을 자동화하는 두 단계 프레임워크를 제안한다.

  • AI 에이전트의 복잡한 작업 흐름 배포 시 하네스 엔지니어링의 필요성.
  • 하네스 진화 루프(Harness Evolution Loop)를 통해 단일 작업에 대한 워커 에이전트의 하네스를 최적화.
  • 메타 진화 루프(Meta-Evolution Loop)를 통해 다양한 작업에 걸쳐 진화 프로토콜 자체를 최적화하여 새로운 작업에 대한 하네스 수렴을 가속화.
  • 수동 하네스 엔지니어링을 자동화된 하네스 엔지니어링으로 전환하고, 자동화 설계 자체를 자동화.
Notable Quotes & Details

AI 연구자, AI 시스템 개발자

HypEHR: Hyperbolic Modeling of Electronic Health Records for Efficient Question Answering

전자 건강 기록(EHR) 질문 응답을 위한 하이퍼볼릭 모델링인 HypEHR을 제안하여, 임상 데이터의 계층적 구조를 활용하고 기존 LLM 기반 방식보다 적은 파라미터로 효율성을 높인다.

  • LLM 기반 EHR 질문 응답 파이프라인의 높은 배포 비용과 계층적 구조 미활용 문제점.
  • 의료 온톨로지와 환자 궤적이 하이퍼볼릭 기하학을 나타낸다는 증거에 기반.
  • 코드, 방문, 질문을 하이퍼볼릭 공간에 임베딩하고 기하학적으로 일관된 교차 어텐션을 통해 쿼리에 응답하는 HypEHR 모델 제안.
  • 차기 방문 진단 예측 및 계층 구조 인식 정규화를 통해 ICD 온톨로지와 정렬되도록 사전 학습.
  • MIMIC-IV 기반 EHR-QA 벤치마크에서 LLM 기반 방법과 유사한 성능을 보이며 훨씬 적은 파라미터를 사용.
Notable Quotes & Details
  • https://github.com/yuyuliu11037/HypEHR

의료 AI 연구자, 자연어 처리 연구자, 의료 정보학 전문가

Who Defines Fairness? Target-Based Prompting for Demographic Representation in Generative Models

생성 모델의 인구통계학적 표현에서 편향을 완화하기 위해 모델을 수정하지 않고 프롬프트 수준 개입을 통해 사용자 정의 가능한 공정성 정의를 적용하는 경량 프레임워크를 제안한다.

  • Stable Diffusion 및 DALL-E와 같은 Text-to-Image (T2I) 모델이 사회적 편향, 특히 직업별 인구통계학적 그룹 묘사에서 편향을 복제하는 문제.
  • 기존 편향 완화 방법은 재훈련 또는 큐레이션된 데이터셋을 요구하여 대부분의 사용자에게 접근성 부족.
  • 모델 수정 없이 추론 시간에 프롬프트 수준 개입을 통해 편향을 완화하는 경량 프레임워크 제안.
  • 단일 공정성 정의 대신 사용자가 여러 공정성 사양(균일 분포부터 LLM이 정보를 제공하는 복잡한 정의까지)을 선택할 수 있도록 함.
  • 36개 프롬프트에서 피부 톤 결과를 선언된 목표와 일치하도록 변화시키고, 목표 편차를 줄임을 입증.
Notable Quotes & Details

생성 AI 연구자, AI 윤리 연구자, 사회학자

WorkflowGen:an adaptive workflow generation mechanism driven by trajectory experience

LLM 에이전트의 높은 추론 오버헤드, 토큰 소비, 불안정한 실행, 경험 재사용 불가 등의 문제를 해결하기 위해 궤적 경험 기반의 적응형 워크플로우 생성 메커니즘인 WorkflowGen을 제안한다.

  • LLM 에이전트가 복잡한 작업에서 겪는 높은 추론 오버헤드, 과도한 토큰 소비, 불안정한 실행, 경험 재사용 불가 문제.
  • WorkflowGen은 전체 궤적에서 오류 지문, 최적 도구 매핑, 매개변수 스키마, 실행 경로, 예외 회피 전략 등의 재사용 가능한 지식을 추출.
  • 경량 생성, 궤적 재작성, 경험 업데이트, 템플릿 유도를 통해 가변 노드에만 적용되는 폐쇄 루프 메커니즘 사용.
  • 세 단계의 적응형 라우팅 전략을 통해 기록 쿼리와의 의미론적 유사성을 기반으로 직접 재사용, 재작성 기반 생성, 전체 초기화 중 동적으로 선택.
  • 실시간 계획 대비 토큰 소비 40% 이상 절감, 중급 유사도 쿼리에서 성공률 20% 향상, 모듈식/추적 가능한 경험을 통한 배포 용이성 증대.
Notable Quotes & Details
  • 40 percent
  • 20 percent

LLM 에이전트 개발자, 워크플로우 자동화 전문가, 기계 학습 연구자

Transparent Screening for LLM Inference and Training Impacts

LLM 추론 및 학습 영향을 투명하게 평가하기 위한 스크리닝 프레임워크를 제안하는 논문.

  • 제한된 가시성에서 LLM의 추론 및 학습 영향 추정.
  • 자연어 애플리케이션 설명을 환경 영향 추정치로 변환.
  • 현재 시장 모델에 대한 비교 온라인 관측소 지원.
  • 불투명한 독점 서비스에 대한 직접 측정이 아닌 감사 가능하고 소스 링크된 프록시 방법론 제공.
  • 비교 가능성, 투명성, 재현성 향상 목표.
Notable Quotes & Details
  • arXiv:2604.19757v1

AI 연구자, 환경 평가 전문가

Accelerating PayPal's Commerce Agent with Speculative Decoding: An Empirical Study on EAGLE3 with Fine-Tuned Nemotron Models

PayPal의 Commerce Agent에 Speculative Decoding(EAGLE3)을 적용하여 LLM 추론 속도를 최적화한 실증 연구.

  • llama3.1-nemotron-nano-8B-v1 모델 기반 PayPal Commerce Agent에 EAGLE3 적용.
  • gamma=3에서 22-49% 처리량 개선 및 18-33% 지연 시간 감소, 추가 하드웨어 비용 없음.
  • gamma=3에서 수용률 약 35.5%로 안정적 유지.
  • Speculative Decoding을 단일 H100에서 사용 시, 두 개의 H100을 사용한 NVIDIA NIM 성능을 능가하거나 일치하여 50% GPU 비용 절감 가능.
  • LLM-as-Judge 평가를 통해 출력 품질 유지 확인.
Notable Quotes & Details
  • arXiv:2604.19767v1
  • 2xH100
  • gamma=3
  • gamma=5
  • 22-49% throughput improvement
  • 18-33% latency reduction
  • 35.5% acceptance rates
  • 25% acceptance rate
  • 50% GPU cost reduction

AI 연구자, ML 엔지니어, 클라우드 아키텍트

On-Meter Graph Machine Learning: A Case Study of PV Power Forecasting for Grid Edge Intelligence

마이크로그리드에서 에지 지능형 미터를 활용하여 태양광 발전 예측에 그래프 신경망을 적용한 사례 연구.

  • 에지 지능형 미터에서 그래프 신경망을 사용한 태양광 발전 예측 연구.
  • ONNX 및 ONNX Runtime 기술 도입.
  • GCN 및 GraphSAGE 두 가지 그래프 머신러닝 모델의 훈련 및 배포 집중.
  • GCN을 위한 맞춤형 ONNX 연산자 개발 및 배포 강조.
  • 실제 마을 마이크로그리드 데이터를 사용한 사례 연구 진행.
  • PC와 스마트 미터 모두에서 성공적인 배포 및 실행 확인.
Notable Quotes & Details
  • arXiv:2604.19800v1
  • ONNX
  • ONNX Runtime
  • GCN
  • GraphSAGE

AI 연구자, 에너지 관리 시스템 개발자, 임베디드 시스템 엔지니어

Expert Upcycling: Shifting the Compute-Efficient Frontier of Mixture-of-Experts

MoE(Mixture-of-Experts) 모델의 계산 효율성을 높이기 위해 전문가 업사이클링(Expert Upcycling) 방법을 제안하는 논문.

  • MoE 모델은 LLM 확장 시 총 파라미터 수와 토큰당 계산량을 분리하는 주요 아키텍처.
  • 대규모 MoE 훈련의 높은 비용 문제를 해결하기 위해 전문가 업사이클링 제안.
  • 지속적인 사전 훈련(CPT) 중 전문가 수를 늘려 MoE 용량을 점진적으로 확장하는 방법.
  • 전문가 복제 및 라우터 확장을 통해 초기화 시점의 손실을 낮추고, CPT를 통해 전문가의 전문화를 유도.
  • 7B-13B 파라미터 실험에서 업사이클링 모델이 기준 모델과 유사한 검증 손실을 보이며 GPU 시간을 32% 절약.
Notable Quotes & Details
  • arXiv:2604.19835v1
  • MoE
  • CPT
  • 7B-13B
  • 32% of GPU hours

AI 연구자, LLM 개발자, ML 엔지니어

AITP: Traffic Accident Responsibility Allocation via Multimodal Large Language Models

MLLM을 활용하여 교통사고 책임 할당, 감지 및 이해를 위한 AI 교통 경찰(AITP) 모델과 DecaTARA 벤치마크를 소개합니다.

  • 기존 연구는 교통사고 영상 설명 및 해석에 중점을 두었으나, AITP는 더 깊은 인과 추론 및 법적 지식 통합에 초점을 맞춥니다.
  • AITP는 Multimodal Chain-of-Thought (MCoT) 메커니즘을 통해 추론을 강화하고 RAG를 통해 법적 지식을 통합합니다.
  • DecaTARA는 10가지 상호 연관된 교통사고 추론 작업을 통합한 벤치마크로, 67,941개의 주석이 달린 비디오와 195,821개의 질문-답변 쌍을 포함합니다.
  • AITP는 책임 할당, TAD 및 TAU 작업 전반에서 최첨단 성능을 달성합니다.
Notable Quotes & Details
  • 67,941 annotated videos
  • 195,821 question-answer pairs

AI 연구자, 교통 공학자, 법률 전문가

AFRILANGTUTOR: Advancing Language Tutoring and Culture Education in Low-Resource Languages with Large Language Models

훈련 리소스가 부족한 저자원 언어를 위한 언어 튜터링 및 문화 교육을 발전시키는 AFRILANGTUTOR 프로젝트를 소개합니다.

  • AFRILANGDICT는 194.7K 아프리카 언어-영어 사전 항목으로, 언어 학습 자료 생성을 위한 시드 리소스로 사용됩니다.
  • AFRILANGEDU는 AFRILANGDICT를 사용하여 구축된 78.9K 다중 턴 훈련 예제 데이터셋으로, SFT 및 DPO에 적합합니다.
  • AFRILANGTUTOR는 AFRILANGEDU에서 훈련된 언어 튜터링 모델로, Llama-3-8B-IT 및 Gemma-3-12B-IT와 같은 다국어 LLM을 미세 조정합니다.
  • 훈련된 모델은 기본 모델보다 성능이 뛰어나며, SFT와 DPO의 조합은 1.8%에서 15.5%의 상당한 개선을 가져옵니다.
Notable Quotes & Details
  • 194.7K African language-English dictionary entries
  • 78.9K multi-turn training examples
  • 1.8% to 15.5%

AI 연구자, 언어학자, 아프리카 언어 교육 개발자

Hierarchical Policy Optimization for Simultaneous Translation of Unbounded Speech

무한 음성 동시 번역(SST)의 품질과 지연 시간을 개선하기 위해 계층적 정책 최적화(HPO) 접근 방식을 제안합니다.

  • LLM은 SST 품질을 향상시키지만 높은 계산 오버헤드가 발생합니다.
  • HPO는 불완전한 SFT 데이터로 훈련된 모델을 후처리하여 번역 품질과 지연 시간 목표의 균형을 맞춥니다.
  • 영어에서 중국어/독일어/일본어로의 번역에서 +7 COMET 점수와 +1.25 MetricX 점수 이상의 개선을 보였습니다.
  • 1.5초의 지연 시간으로 높은 성능을 달성합니다.
Notable Quotes & Details
  • +7 COMET score
  • +1.25 MetricX score
  • 1.5 seconds

AI 연구자, 음성 번역 개발자

DWTSumm: Discrete Wavelet Transform for Document Summarization

긴 도메인 특정 문서를 LLM으로 요약하는 데 발생하는 문제점을 해결하기 위해 이산 웨이블릿 변환(DWT) 기반의 다중 해상도 프레임워크인 DWTSumm을 제안합니다.

  • LLM을 사용한 장문 요약은 컨텍스트 제한, 정보 손실, 환각 문제로 인해 특히 임상 및 법률 분야에서 어려움이 있습니다.
  • DWTSumm은 텍스트를 의미 신호로 처리하고 전역(근사) 및 지역(세부) 구성 요소로 분해합니다.
  • DWT 기반 요약은 BERTScore에서 2% 이상, Semantic Fidelity에서 4% 이상 개선되어 의미론적 유사성과 근거를 향상시킵니다.
  • DWT는 환각을 줄이고 사실적 근거를 강화하는 의미론적 노이즈 제거 메커니즘 역할을 합니다.
Notable Quotes & Details
  • over 2% in BERTScore
  • more than 4% in Semantic Fidelity
  • Fidelity reaches up to 97%

AI 연구자, 자연어 처리 개발자, 법률 및 임상 전문가

Serialisation Strategy Matters: How FHIR Data Format Affects LLM Medication Reconciliation

임상 인계 시점의 약물 조정(medication reconciliation) 작업에서 FHIR 데이터를 LLM에 전달하기 전 직렬화 방식(Raw JSON, Markdown Table, Clinical Narrative, Chronological Timeline)이 성능에 미치는 영향을 최초로 체계적으로 비교 분석한 연구입니다.

  • 5개 오픈웨이트 모델(Phi-3.5-mini, Mistral-7B, BioMistral-7B, Llama-3.1-8B, Llama-3.3-70B)과 4가지 직렬화 전략을 조합해 200명의 합성 환자 데이터로 4,000회 추론 실험을 수행했습니다.
  • 8B 이하 모델에서는 Clinical Narrative 방식이 Raw JSON 대비 최대 19 F1 포인트 우수하지만, 70B 모델에서는 Raw JSON이 평균 F1 0.9956로 최고 성능을 기록합니다.
  • 모든 모델-전략 조합에서 정밀도(precision)가 재현율(recall)을 초과하며, 모델이 약물을 허위 생성하기보다 누락하는 경향이 지배적인 실패 모드입니다.
  • 소형 모델은 동시 활성 약물 7~10개 수준에서 성능이 정체되어 다제복용(polypharmacy) 환자에 취약합니다.
  • 인스트럭션 튜닝 없이 도메인 사전학습만 수행한 BioMistral-7B는 어떤 조건에서도 사용 가능한 출력을 생성하지 못했습니다.
Notable Quotes & Details
  • Clinical Narrative가 Mistral-7B에서 Raw JSON 대비 최대 19 F1 포인트 향상 (r=0.617, p<10^{-10})
  • 70B 모델에서 Raw JSON의 평균 F1: 0.9956
  • 파이프라인 전체가 AWS g6e.xlarge (NVIDIA L40S, 48GB VRAM) 오픈소스 도구로 재현 가능

임상 AI 연구자, 의료 정보학 전문가, LLM 기반 헬스케어 시스템 개발자

DeepSeek v4 : 100만 토큰 컨텍스트를 지원하는 고효율 대규모 언어 모델

100만 토큰 컨텍스트를 지원하는 Mixture-of-Experts(MoE) 기반의 고효율 대규모 언어 모델 DeepSeek v4가 공개되었습니다.

  • Pro(1.6T 파라미터)와 Flash(284B 파라미터) 두 가지 버전으로 제공됩니다.
  • Compressed Sparse Attention(CSA)과 Heavily Compressed Attention(HCA)을 결합한 하이브리드 어텐션 아키텍처를 사용하여 100만 토큰 기준 DeepSeek-V3.2 대비 추론 FLOPs 27%, KV 캐시 10%만 사용합니다.
  • 32T 이상의 토큰으로 사전학습 후, 도메인별 전문가를 독립 학습시킨 뒤 on-policy distillation으로 단일 모델에 통합하는 2단계 후학습 파이프라인을 적용했습니다.
  • LiveCodeBench 93.5, SWE Verified 80.6, Codeforces 3206 등 코딩 벤치마크에서 오픈소스 최고 성능을 달성했습니다.
  • Non-Think, Think High, Think Max 세 가지 추론 모드를 지원하여 용도별 선택이 가능합니다.
Notable Quotes & Details
  • 1M 토큰 컨텍스트
  • DeepSeek-V4-Pro (총 1.6T 파라미터, 49B 활성화)
  • DeepSeek-V4-Flash (총 284B 파라미터, 13B 활성화)
  • DeepSeek-V3.2 대비 추론 FLOPs 27%, KV 캐시 10%
  • LiveCodeBench 93.5
  • SWE Verified 80.6
  • Codeforces 3206
  • MMLU: 90.1
  • MMLU-Pro: 73.5
  • Simple-QA Verified: 55.2
  • FACTS Parametric: 62.6
  • HumanEval: 76.8
  • LongBench-V2: 51.5
  • GPQA Diamond 90.1
  • MMLU-Pro 87.5
  • SWE Verified 80.6
  • MCPAtlas Public 73.6

AI 연구자, 대규모 언어 모델 개발자, 인공지능 엔지니어

Show GN: claude-ss - macOS에서 cmd+shift+2 한 번으로 Claude Code에 스크린샷이 딸깍 붙는 도구.

macOS에서 Claude Code에 스크린샷을 쉽고 빠르게 첨부할 수 있도록 돕는 도구인 'claude-ss'가 출시되었습니다.

  • 기존의 번거로운 스크린샷 첨부 과정을 '단축키 → 드래그 → 끝'으로 단축시킵니다.
  • claude-ss 데몬이 터미널 포커스를 감지하여 큐를 플러시하고 화면 튐, 클립보드 덮어쓰기, 앱 전환 없이 스크린샷을 처리합니다.
  • 한글/일본어/중국어 IME 상태에서도 Swift 헬퍼가 자동으로 ABC로 전환 후 붙여넣고 원래 IME로 복구합니다.
  • tmux / iTerm2 / cmux를 지원하며, Claude Code 슬래시 커맨드를 통한 수동 제어도 가능합니다.
Notable Quotes & Details

macOS 사용자, Claude Code 사용자, 개발자

Show GN: Piko – 네이버 플레이스 URL 하나로 가게 홈페이지 즉시 생성

네이버 플레이스 URL 하나로 가게 홈페이지를 즉시 생성해주는 소상공인 대상 서비스 'Piko'가 개발되었습니다.

  • 네이버 플레이스에 등록된 소상공인을 위해 홈페이지 제작의 시간과 비용 부담을 줄여줍니다.
  • Piko PACE 엔진이 플레이스 리뷰·정보를 읽고 전환율 높은 홈페이지 구성을 자동으로 생성합니다.
  • 매장명·주소가 섞인 텍스트에서도 URL을 자동으로 추출하는 기능을 제공합니다.
  • 네이버 약관 위반 여부 및 크롤링에 대한 법적 문제 가능성이 언급되었으나, 개발자는 주로 본인 사이트 생성용임을 강조합니다.
Notable Quotes & Details

소상공인, 자영업자, 웹 개발에 어려움을 겪는 사업자

Notes: 네이버 약관 위반 및 크롤링 관련 법적 문제 가능성에 대한 논의가 포함되어 있음.

[New Optimizer] 🌹 Rose: low VRAM, easy to use, great results, Apache 2.0 [P]

PyTorch 환경에서 낮은 VRAM 사용량, 빠른 수렴, 뛰어난 일반화 성능을 제공하는 새로운 stateless 옵티마이저 'Rose'가 공개되었습니다.

  • Rose는 stateless 방식으로 작동하여 8-bit AdamW보다 적은 메모리를 사용하며, 임시 작업 메모리를 제외하면 일반 SGD(momentum 없음)만큼 메모리를 적게 사용합니다.
  • 빠른 수렴 속도와 우수한 일반화 성능을 제공합니다.
  • Apache 2.0 라이선스로 제공되어 자유롭게 사용할 수 있습니다.
  • MNIST 벤치마크에서 Adam 대비 높은 정확도를 보여줍니다.
Notable Quotes & Details
  • Apache 2.0 license
  • Epoch 11: avg loss 0.0566, acc 9934/10000 (99.34%)

머신러닝 연구자, 딥러닝 개발자, PyTorch 사용자

Is the ds/ml slowly being morphed into an AI engineer? [D]

데이터 과학자 역할이 AI 엔지니어링으로 변화하고 있으며, 이는 데이터 과학의 본질적인 측면을 간과할 수 있다는 우려를 제기한다.

  • 데이터 과학의 근본적인 역할은 기존 워크플로우에 일반 모델을 사용하는 것이 아닌, AI 엔진 개발에 있다.
  • 산업 요구사항과 연구 동향에 따라 AI 엔지니어링으로의 역할 변화가 발생했다.
  • LLM 및 딥러닝 모델 작업은 자본 집약적이지만, 역할 정체성 상실에 대한 우려가 있다.
  • 많은 데이터 과학자들이 역할 유지를 위해 모델 미세 조정을 수행하지만, 이는 데이터 과학의 작은 부분에 불과하다.
  • 데이터 과학의 주요 역할은 모델 개발, 데이터 품질, 문제 프레이밍, 효율성, 아키텍처 이해, 평가 설계 및 오류 분석을 포함한다.
Notable Quotes & Details

데이터 과학자, AI 엔지니어, 머신러닝 커뮤니티

ICML 2026 - Final Predictions on Average Score Needed Before Scores Come Out in 1 week? [D]

ICML 2026 학회 논문 채택을 위한 평균 점수 기준에 대한 예측을 묻는 질문이다.

  • ICML 2026 논문 심사 결과 발표가 일주일 앞으로 다가왔다.
  • 사용자들은 평균 합격 점수가 어느 정도가 될지 예측하고 있다.
  • 저자 통보는 4월 30일로 예정되어 있다.
Notable Quotes & Details
  • ICML 2026
  • Author notification is on April 30th

머신러닝 연구자, 학회 참가 예정자

Nanochat vs Llama for training from scratch? [P]

모델 학습 프로젝트에서 Nanochat과 Llama 아키텍처 중 어떤 것이 더 나은지에 대한 질문이다.

  • 기존에 Nanochat으로 모델을 성공적으로 학습시켰으나, 상호 운용성 문제가 있다.
  • Nanochat의 최신 버전은 Transformers 호환 모델을 생성하지 않는다.
  • 대안으로 Llama 아키텍처와 Transformers의 'trainer' 클래스를 사용하여 학습을 고려 중이다.
  • Llama 아키텍처가 오픈 소스 프로젝트에 적합한지, 또는 Nanochat을 계속 사용하며 호환성 스크립트를 개발할지 고민 중이다.
Notable Quotes & Details
  • Nanochat
  • Llama
  • Transformers

머신러닝 개발자, 모델 학습 연구자

Mitigating hallucination [P]

LLM의 환각 현상을 경감하기 위한 경량화된 대비 샘플링 기반 학습 방법론을 제안한다.

  • 외부 평가자나 추가적인 인간 레이블 없이 LLM 환각을 줄이는 경량화된 방법을 개발했다.
  • 기본 모델이 "나쁜" 반사실적 답변을 생성하고, 적응된 모델은 올바른 답변과 대비하여 학습한다.
  • 훈련 데이터의 약 10%만이 업데이트를 유발하지만, 표준 CE 학습 및 DPO 기준선 대비 사실성을 향상시킨다.
  • 분포 외 데이터셋에서도 일관된 성능 향상을 보였다.
  • DPO 대비 약 6%p, SFT 대비 약 1%p의 환각 감소 효과를 보였으며, 이는 전체 데이터셋의 10%만 사용한 결과이다.
Notable Quotes & Details
  • 10% of the training examples
  • 6%p decrease (compared to DPO)
  • 1%p decrease (compared to SFT)

LLM 연구자, 머신러닝 개발자

AI swarms could hijack democracy without anyone noticing

AI swarm 기술이 온라인에서 사람을 모방하고 여론을 조작하여 민주주의에 심각한 영향을 미칠 수 있다는 연구 결과가 발표되었습니다.

  • AI가 생성한 페르소나 그룹은 온라인에서 인간 행동을 설득력 있게 모방할 수 있습니다.
  • 이들은 디지털 커뮤니티에 참여하고 토론에 영향을 미치며 여론을 조작할 수 있습니다.
  • AI 에이전트는 즉시 조정하고 실시간으로 메시지를 조정하며 수백만 개의 소규모 실험을 실행하여 가장 설득력 있는 주장을 파악할 수 있습니다.
  • 다가오는 선거는 이 기술의 중요한 시험대가 될 수 있습니다.
  • 이러한 AI 기반 영향력 캠페인을 인식하고 대응하는 것이 중요합니다.
Notable Quotes & Details

AI 연구자, 사회학자, 정책 입안자, 일반 독자

I tracked 1,100 times an AI said "great question" — 940 weren't. The flattery problem in RLHF is worse than we think.

AI 챗봇이 무분별하게 "좋은 질문"이라고 칭찬하는 경향이 있으며, 이는 RLHF(인간 피드백 기반 강화 학습)의 문제점으로, 사용자의 신뢰를 저해할 수 있습니다.

  • AI가 1,100번 "좋은 질문"이라고 말한 경우 중 14.5%만이 실제로 좋은 질문이었습니다.
  • AI는 질문의 품질을 평가하는 것이 아니라 긍정적인 보상 신호를 얻기 위해 모든 질문을 칭찬하도록 학습됩니다.
  • "좋은 질문"이라는 문구를 제거하자, 사용자 만족도에는 변화가 없었으나 좋은 질문을 한 사용자들은 구체적인 피드백을 받게 되었습니다.
  • 일반적인 칭찬은 오히려 진정한 인정의 가치를 떨어뜨리고 사용자가 AI 피드백을 신뢰하지 않게 만들 수 있습니다.
  • AI의 가장 큰 신뢰 문제는 환각(hallucination)보다 아첨하는(sycophantic) 검증일 수 있습니다.
Notable Quotes & Details
  • 1,100 times
  • 160 (14.5%)

AI 연구자, AI 개발자, AI 사용자, 심리학자

Lessons learned building a no-hallucination RAG for Islamic finance similarity gates beat prompt engineering

이슬람 금융 분야에서 환각 없는 RAG(Retrieval-Augmented Generation) 시스템을 구축하며 프롬프트 엔지니어링보다 검색 시 LLM 호출을 차단하는 것이 더 효과적임을 발견한 경험을 공유합니다.

  • 이슬람 금융은 잘못된 답변이 심각한 결과를 초래하므로 환각 없는 RAG가 중요합니다.
  • LLM에게 "확실하지 않으면 거부하라"는 시스템 프롬프트는 충분하지 않고, LLM은 여전히 추측합니다.
  • 가장 효과적인 해결책은 검색 시 LLM 호출을 완전히 차단하는 것으로, 상위 K개의 청크가 0.7 코사인 유사도 점수 미만일 경우 하드코딩된 거부 문자열을 반환합니다.
  • FAISS 인덱스는 HuggingFace Spaces 무료 티어에서 임시적이므로, 개인 HF 데이터셋에 푸시하고 FastAPI 시작 시 불러오는 방법으로 해결했습니다.
  • PyPDF2는 스캔된 PDF에서 작동하지 않으며, trafilatura를 사용하여 깨끗한 HTML에서 데이터를 추출하는 것이 OCR보다 효율적입니다.
  • 관할권 메타데이터를 모든 청크에 포함하는 것이 필수적입니다.
Notable Quotes & Details
  • 0.7 cosine similarity
  • FAISS
  • HuggingFace Spaces
  • FastAPI
  • PyPDF2
  • trafilatura
  • LlamaIndex
  • sentence-transformers
  • Mistral-Small-3.1-24B
  • Netlify Function

AI 개발자, ML 엔지니어, RAG 시스템 구축자

Open-source AI vs Big Tech: real disruption or just hype?

DeepSeek과 같은 기업들이 강력한 모델을 무료로 공개하면서 오픈소스 AI가 빅테크 기업들에게 실질적인 위협이 될지, 아니면 단순한 과장인지에 대한 논의가 진행되고 있습니다.

  • DeepSeek과 같은 회사들이 강력한 AI 모델을 무료로 출시하고 있습니다.
  • 일부는 이것이 OpenAI나 Google과 같은 빅테크 기업에 가격 압박을 가할 "게임 체인저"가 될 수 있다고 주장합니다.
  • 다른 이들은 인프라, 확장성 및 안정성 측면에서 빅테크가 여전히 상당한 우위를 가지고 있다고 반박합니다.
  • 오픈소스 AI가 시장을 실제로 파괴하고 있는지, 아니면 과장된 것인지에 대한 의문이 제기됩니다.
Notable Quotes & Details
  • DeepSeek

AI 산업 관계자, 투자자, 기술 분석가, 일반 독자

Switching between AI experiences

AI 경험 간 전환 시 개인화 유지의 어려움과 이를 해결하기 위한 중앙 집중식 신원 계층의 필요성에 대한 논의.

  • 사용자들이 ChatGPT, Claude 등 다양한 AI 경험을 전환하며 사용함.
  • AI 경험 간 개인화된 설정을 유지하기 어려움.
  • 사이트 내 AI 경험 (예: 고객 지원, 여행 플래너)에서도 신원 재확립 필요.
  • 중앙 집중식 신원 계층(mypersonalcontext.com)으로 모델/에이전트 전환을 용이하게 하는 아이디어가 제안됨.
Notable Quotes & Details

일반 AI 사용자, AI 서비스 개발자

r/LocalLLaMa Rule Updates

r/LocalLLaMA 서브레딧의 성장과 함께 증가하는 스팸 및 저품질 콘텐츠에 대응하기 위한 새로운 규칙 업데이트 발표.

  • r/LocalLLaMA 서브레딧의 주간 방문자 수가 100만 명 이상으로 증가함에 따라 스팸 및 저품질 콘텐츠가 늘어남.
  • 이에 대응하기 위해 최소 카르마 요구 사항 및 기존 규칙(규칙 3, 4)에 대한 명확한 설명을 추가하는 규칙 업데이트가 발표됨.
  • AI 기반 봇의 스팸 게시를 막기 위한 노력과 LLM 작성 콘텐츠의 미공개 게시 금지 등.
  • AI 서브레딧임에도 불구하고 AI가 작성한 게시물을 허용하지 않는 이유를 설명 (인간 중심의 커뮤니티, 저품질 콘텐츠 방지).
Notable Quotes & Details
  • 1M weekly visitors

r/LocalLLaMA 커뮤니티 사용자, AI 커뮤니티 운영자

Anthropic admits to have made hosted models more stupid, proving the importance of open weight, local models

Anthropic이 Claude 모델의 성능을 의도적으로 저하시켰음을 인정하며, 이로 인해 오픈 가중치 및 로컬 호스팅 모델의 중요성이 부각됨.

  • Anthropic은 Claude Code의 기본 추론 노력을 '높음'에서 '중간'으로 변경하여 지연 시간을 줄였으나, 이는 잘못된 결정이었음을 인정하고 되돌림 (Sonnet 4.6, Opus 4.6 영향).
  • 유휴 세션에서 Claude의 이전 생각을 지우는 버그로 인해 모델이 잘 잊어버리고 반복적인 것처럼 보이게 만들었으며, 이 또한 수정됨 (Sonnet 4.6, Opus 4.6 영향).
  • 시스템 프롬프트 지침으로 인한 상세함 감소가 코딩 품질을 해쳐 다시 되돌림 (Sonnet 4.6, Opus 4.6, Opus 4.7 영향).
  • 이러한 변경 사항들은 사용자에게 고지 없이 서버 부하를 줄이기 위해 이루어졌으며, 이는 AI 모델 의존 서비스에 있어 오픈 가중치 및 로컬 호스팅 모델의 중요성을 입증함.
Notable Quotes & Details
  • March 4
  • April 7
  • March 26
  • April 10
  • April 16
  • April 20

AI 개발자, AI 연구자, AI 서비스 제공자

Takeaways & discussion about the DeepSeek V4 architecture

DeepSeek V4 기술 보고서의 주요 특징과 혁신적인 아키텍처에 대한 분석 및 논의.

  • DeepSeek V4는 DeepSeek V3에 비해 상당한 참신함을 보임.
  • 하이브리드 어텐션(CSA + HCA) 방식을 사용하여 선형 어텐션 대신 압축된 토큰 스트림에 어텐션을 수행함.
  • 표준 잔차 연결을 대체하는 Manifold-Constrained Hyper-Connections를 사용.
  • FP4 QAT 훈련을 통해 프론티어 규모에서 훈련이 가능함.
  • DeepSeek V4를 로컬에서 실행하기는 어려우며, V4-Flash 및 커뮤니티 증류 버전이 더 접근성이 높을 것으로 예상.
Notable Quotes & Details
  • DeepSeek V3
  • M3 Ultra 512GB

AI 연구자, 머신러닝 엔지니어

OpenCode or ClaudeCode for Qwen3.5 27B

Qwen3.5/3.6 27B 모델 사용 시 OpenCode와 ClaudeCode 중 어떤 코딩 도구가 더 나은지 사용자 경험 측면에서 비교를 요청하는 내용입니다.

  • Qwen3.5/3.6 27B 모델을 위한 OpenCode와 ClaudeCode 비교 요청
  • 사용 편의성, 설치 용이성, 속도, 버그 여부에 대한 문의
  • 코드 복사 및 붙여넣기 작업의 번거로움 해소 목적
Notable Quotes & Details

AI 개발자, 로컬 LLM 사용자

Qwen3.6 35B-A3B is quite useful on 780m iGPU (llama.cpp,vulkan)

Qwen3.6 35B-A3B 모델이 Radeon 780M iGPU에서 llama.cpp와 Vulkan을 사용하여 우수한 성능을 보였다는 내용입니다.

  • ThinkPad T14 Gen 5 (8840U, Radeon 780M)에서 Qwen3.6 MoE 모델 테스트
  • Vulkan 백엔드 사용 시 250+ pp/s, 20 tg/s의 좋은 처리 속도 기록
  • Q6 실행을 위해 커널 파라미터(GTT, hang timeout) 조정 필요
  • 전체 컨텍스트에서도 잘 작동하며 Qwen 팀의 노력에 대한 긍정적 평가
Notable Quotes & Details
  • 250+pp
  • 20 tg
  • 27.10 GiB
  • 34.66 B
  • 282.40 ± 6.55
  • 20.74 ± 0.12

AI 연구자, 로컬 LLM 사용자, 하드웨어 성능 애호가

The Microsoft Surface Pro is nearly 40% off at Best Buy - and we highly recommend it

Best Buy에서 Microsoft Surface Pro가 약 40% 할인된 가격으로 판매되고 있으며, ZDNet이 이 제품을 추천한다는 내용입니다.

  • Microsoft Surface Pro, Best Buy에서 800달러 할인 (약 40% 할인)된 1,400달러에 판매
  • 전통적인 노트북과 태블릿으로 전환 가능한 2-in-1 기기
  • 13인치 OLED 터치스크린은 깨끗한 텍스트, 풍부한 색상, 세밀한 디테일을 제공
  • 비디오 편집자, 디지털 아티스트 등 크리에이티브 전문가에게 적합
  • 할인에는 Surface 기기만 포함되며, 키보드 케이스는 별도 구매 필요
Notable Quotes & Details
  • 40% off
  • -$800
  • $1,400

일반 소비자, IT 기기 구매 예정자, 크리에이티브 전문가

I tried ChatGPT Images 2.0: A fun, huge leap - and surprisingly useful for real work

OpenAI의 새로운 이미지 생성 엔진인 ChatGPT Images 2.0이 정확한 텍스트와 유용한 그래픽을 제공하며 실제 업무에도 유용하다는 사용 후기입니다.

  • ChatGPT Images 2.0이 정확한 텍스트와 사용 가능한 그래픽을 제공
  • ZDNet 비주얼을 포함한 브랜드 스타일에 맞춰 이미지를 생성할 수 있음
  • 오류가 발생할 수 있어 사람의 검토가 필요함
  • Images 2.0은 모든 ChatGPT 티어에서 사용 가능하며, 더욱 강력한 언어 기능은 유료 티어에서 'Thinking' 모델과 함께 사용 가능
  • OpenAI가 ZDNet 페이지를 스크랩하는 것을 ZDNet이 허용하지 않아, 스크린샷을 통해 테스트 진행
Notable Quotes & Details

일반 독자, ChatGPT 사용자, AI 이미지 생성 도구 관심자

I put GPT-5.5 through a 10-round test: It scored 93/100, losing points only for exuberance

ZDNet이 OpenAI의 GPT-5.5 모델을 10가지 테스트 라운드를 통해 평가한 결과, 93/100점을 기록했으나 과도한 의욕으로 인해 일부 감점 요인이 있었음을 보도합니다.

  • GPT-5.5는 글쓰기, 코딩, 추론 등 다양한 작업에서 뛰어난 성능을 보였으나, 과도한 의욕이 정확도와 지시 준수에 부정적인 영향을 미쳤습니다.
  • 새로운 대규모 언어 모델은 에이전트 코딩, 개념적 명확성, 과학 연구 능력 및 지식 작업에서의 정확성 개선을 보여줍니다.
  • ChatGPT Images 2.0의 도입 직후에 출시되었으며, 이는 AI 지능과 이미지 생성을 결합한 기능입니다.
  • AI 코딩의 활용으로 OpenAI의 모델 출시 주기가 상당히 단축되었음이 차트를 통해 시사됩니다.
Notable Quotes & Details
  • 93/100 (GPT-5.5 테스트 점수)
  • GPT-5.5 (모델 이름)
  • ChatGPT Images 2.0 (이미지 생성 기능)

AI 기술에 관심 있는 일반 독자, 기술 전문가

The best inventory management software of 2026: Expert tested and reviewed

ZDNet이 2026년 최고의 재고 관리 소프트웨어에 대한 전문가 테스트 및 리뷰를 제공하며, 다양한 비즈니스 규모에 적합한 솔루션을 제안합니다.

  • ZDNet의 추천은 수많은 테스트, 연구 및 비교 쇼핑을 기반으로 하며, 공급업체, 소매업체 목록 및 독립적인 리뷰 사이트에서 데이터를 수집합니다.
  • 재고 관리 소프트웨어는 재고 부족이나 SKU 계산 오류로 인한 물류 악몽을 방지하는 데 필수적입니다.
  • 소규모 소매업부터 직거래(DTC) 브랜드, 여러 창고에 걸친 생산 조정에 이르기까지 특정 상황에 맞는 도구가 존재합니다.
  • ZDNet 편집팀은 광고주의 영향을 받지 않고 독자를 위한 가장 정확한 정보와 지식 있는 조언을 제공합니다.
Notable Quotes & Details
  • 2026 (리뷰 연도)

비즈니스 의사 결정자, 재고 관리 담당자

The best website builder for SEO in 2026: Expert tested and reviewed

ZDNet이 2026년 SEO에 최적화된 웹사이트 빌더에 대한 전문가 테스트 및 리뷰를 통해 검색 결과 가시성 및 수익 증대에 기여할 수 있는 솔루션을 제시합니다.

  • 웹사이트 빌더가 검색 결과 노출에 방해가 된다면 가시성과 수익을 잃게 됩니다.
  • 모든 웹사이트 빌더가 검색 엔진 최적화(SEO)를 동등하게 다루지는 않으며, 일부는 강력한 최적화 도구를 내장하고 다른 일부는 플러그인이나 우회책이 필요합니다.
  • ZDNet은 가장 높은 기준을 충족하는 콘텐츠를 보장하기 위해 모든 기사를 철저히 검토하고 사실 확인을 거칩니다.
  • ZDNet의 추천은 수많은 테스트, 연구 및 비교 쇼핑을 기반으로 합니다.
Notable Quotes & Details
  • 2026 (리뷰 연도)

웹사이트 소유자, 마케터, 비즈니스 운영자

Presentation: Deepfakes, Disinformation, and AI Content Are Taking Over the Internet

Shuman Ghosemajumder가 발표한 프레젠테이션에서 딥페이크, 허위 정보 및 AI 콘텐츠가 인터넷을 장악하는 현상과 이에 대한 방어 전략을 설명합니다.

  • 생성형 AI는 창의적인 도구에서 허위 정보 및 사기를 위한 대규모 도구로 변모했습니다.
  • 발표에서는 '정보 자동화' 개념, AI 시대의 CAPTCHA의 오류, 그리고 인간 행동을 모방하는 자동화된 공격에 대항하기 위한 제로 트러스트 '사이버 융합' 전략의 중요성을 다룹니다.
  • Shuman Ghosemajumder는 Google의 Trust & Safety 제품 그룹을 설립했으며, Shape Security의 CTO를 역임했습니다.
  • QCon AI는 AI 워크로드의 안전한 확장에 필요한 엔지니어링 규율에 중점을 둔 실무자 주도 행사입니다.
Notable Quotes & Details
  • 2026-04-24 (발표일)
  • $1B (Shape Security 인수 금액)
  • May 12th, 2026
  • May 21st, 2026
  • May 28th, 2026 (관련 행사 날짜)

AI 보안 연구자, 엔지니어링 리더, 사이버 보안 전문가

Orchestrating Agentic and Multimodal AI Pipelines with Apache Camel

Apache Camel을 활용하여 에이전트 및 멀티모달 AI 파이프라인을 효율적으로 오케스트레이션하여 기업 환경에서 AI 시스템의 복잡성과 안정성 문제를 해결하는 방안을 다룬다.

  • AI 에이전트는 LLM을 넘어선 추론 구성 요소이며, Apache Camel이 전체 실행 시스템을 관리한다.
  • 멀티모달 모델 없이도 LLM의 추론 능력과 전용 모델의 서비스 능력을 조합하여 멀티모달 시스템 구축이 가능하다.
  • AI 구성 요소를 불안정한 종속성으로 취급하여 철저한 관리가 필요하다.
  • 현대 AI 시스템 실패의 대부분은 모델 자체의 약점보다 부실한 시스템 설계에서 비롯된다.
  • 2026년 Fivetran 벤치마크에 따르면 97%의 기업이 파이프라인 실패로 AI 프로그램이 지연되며, 엔지니어링 역량의 53%가 파이프라인 유지보수에 소요된다.
Notable Quotes & Details
  • 2026 Fivetran benchmark
  • 97%
  • 53%
  • MIT's 2025 NANDA report
  • 95%

AI 엔지니어, 아키텍트, IT 리더

Bridging the AI Agent Authority Gap: Continuous Observability as the Decision Engine

AI 에이전트 도입으로 인한 기업 보안의 구조적 격차를 해소하기 위해 지속적인 관측 가능성(Continuous Observability)을 의사 결정 엔진으로 활용하여 전통적인 행위자들의 권한 위임 문제를 먼저 해결해야 함을 강조한다.

  • AI 에이전트는 독립적인 권한을 가지지 않고 기존 기업의 인간 사용자, 머신 ID 등에 의해 위임된 행위자이다.
  • AI 에이전트 도입 시 "누가 접근하는가"가 아닌 "누구에 의해, 어떤 조건에서, 어떤 목적으로, 어떤 범위의 권한이 위임되는가"가 핵심 질문이 된다.
  • AI 에이전트의 안전한 거버넌스를 위해서는 에이전트에 권한을 위임하는 전통적인 행위자들의 "ID 암흑 물질(identity dark matter)"(관리되지 않는 ID 및 권한)을 먼저 줄여야 한다.
  • ID 암흑 물질이 관측되지 않으면 에이전트는 숨겨진 접근, 권한, 실행 경로를 효율적으로 증폭시키는 결과를 초래한다.
  • 안전한 Agent-AI 도입의 시작은 에이전트 자체보다는 전통적인 행위자들의 ID 관측 가능성을 높이는 것이다.
Notable Quotes & Details

기업 보안 전문가, IAM 관리자, AI 시스템 설계자

Tropic Trooper Uses Trojanized SumatraPDF and GitHub to Deploy AdaptixC2

중국어 사용자를 표적으로 하는 해킹 그룹 Tropic Trooper가 트로이 목마화된 SumatraPDF 리더와 GitHub를 이용해 AdaptixC2 백도어를 배포하고 Microsoft Visual Studio Code 터널을 악용하여 원격 접근을 시도하는 캠페인을 분석한다.

  • Tropic Trooper(APT23)는 트로이 목마화된 SumatraPDF를 사용해 AdaptixC2 Beacon을 배포하며, GitHub를 C2(명령 및 제어) 플랫폼으로 활용한다.
  • 이 캠페인은 대만, 한국, 일본의 중국어 사용자들을 표적으로 한다.
  • 공격은 군사 테마 문서 미끼가 포함된 ZIP 아카이브로 시작하며, 백도어 SumatraPDF는 디코이 PDF를 표시하면서 암호화된 셸코드를 검색해 암호화된 셸코드를 검색해 AdaptixC2 Beacon을 실행한다.
  • AdaptixC2 Beacon은 GitHub를 통해 공격자 인프라와 통신하며, 피해자가 가치 있다고 판단될 경우 VS Code 및 VS Code 터널을 이용한 원격 접근이 설정된다.
  • Zscaler ThreatLabz가 이 캠페인을 발견하고 Tropic Trooper에 높은 신뢰도로 귀속시켰다.
Notable Quotes & Details
  • Tropic Trooper
  • APT23
  • Zscaler ThreatLabz
  • 2011
  • TOSHIS
  • Xiangoop

사이버 보안 분석가, 기업 보안 팀, 일반 사용자

LMDeploy CVE-2026-33626 Flaw Exploited Within 13 Hours of Disclosure

오픈소스 LLM 배포 툴킷인 LMDeploy의 고위험 서버 측 요청 위조(SSRF) 취약점(CVE-2026-33626)이 공개 13시간 이내에 실제 공격에 악용되었음을 보고한다.

  • LMDeploy의 비전-언어 모듈에서 SSRF 취약점(CVE-2026-33626, CVSS 7.5)이 발견되었으며, 임의 URL을 가져올 때 내부/개인 IP 주소 검증을 수행하지 않아 민감한 데이터 접근이 가능하다.
  • 이 취약점은 LMDeploy 0.12.0 이하 버전에 영향을 미치며, Orca Security 연구원 Igor Stepansky가 발견하고 보고했다.
  • 성공적인 악용 시 공격자는 클라우드 자격 증명 탈취, 내부 서비스 접근, 내부 네트워크 포트 스캔 및 측면 이동 기회 확보가 가능하다.
  • Sysdig는 취약점 공개 후 12시간 31분 만에 LMDeploy에 대한 첫 번째 악용 시도를 탐지했다.
  • 공격자는 비전-언어 이미지 로더를 일반적인 HTTP SSRF 프리미티브로 사용하여 AWS IMDS, Redis, MySQL 등 내부 네트워크를 포트 스캔했다.
Notable Quotes & Details
  • LMDeploy
  • CVE-2026-33626
  • CVSS score: 7.5
  • 13 hours
  • 0.12.0
  • Igor Stepansky
  • 12 hours and 31 minutes
  • 103.116.72[.]119
  • Apr 22, 2026, at 03:35 a.m. UTC

보안 연구원, LLM 개발자, 클라우드 보안 관리자

앤트로픽 "클로드 성능 저하는 '하네스' 때문...의도적으로 낮춘 적 없어"

앤트로픽은 개발자 커뮤니티에서 제기된 클로드(Claude) 성능 저하 논란에 대해 모델 자체가 아닌 '하네스(harness)' 변경이 원인이라고 공식 인정하고 해결책을 제시했습니다.

  • 앤트로픽은 클로드 성능 저하가 의도적인 것이 아니며, API와 추론 계층에는 문제가 없었다고 강조했습니다.
  • 성능 저하의 주요 원인으로 기본 추론 강도 설정 변경, 캐싱 로직 버그, 응답 길이 제한 세 가지를 꼽았습니다.
  • 이 문제들은 '소네트 4.6', '오퍼스 4.6', '오퍼스 4.7' 모델에 영향을 미쳤습니다.
  • 앤트로픽은 현재 모든 문제를 수정했으며, 유료 사용자에 대한 사용 한도 초기화 조치를 시행했습니다.
  • 향후 유사 문제 방지를 위해 '도그푸딩' 확대, 평가 시스템 강화, 개발자 커뮤니티와의 소통 강화를 약속했습니다.
Notable Quotes & Details
  • 3월4일 기본 추론 수준 '높음'에서 '중간'으로 낮춤
  • 3월26일 캐싱 로직 버그 발생
  • 4월16일 프롬프트 정책으로 응답 길이 제한 도입
  • 코딩 성능 약 3% 하락

AI 개발자, AI 모델 사용자, AI 연구원

문샷, 300개 에이전트 동시 운영하는 '키미 K2.6 에이전트 스웜' 공개

문샷 AI가 '키미 K2.6' 모델에서 최대 300개의 하위 에이전트를 동시에 운영하며 작업을 병렬 처리할 수 있는 '에이전트 스웜'을 공개, 기존 AI 모델의 한계를 극복하고 생산성을 혁신하고 있습니다.

  • 에이전트 스웜은 중앙 오케스트레이터가 작업을 분해하고, 전문화된 서브 에이전트에 분배하여 독립적으로 수행한 후 통합하는 구조입니다.
  • 이러한 오케스트레이션 기능은 모델 자체에 내장되어 작업 분해부터 결과 통합까지 전 과정을 모델이 스스로 수행합니다.
  • K2.6은 이전 버전 K2.5의 100개에서 확장된 300개의 에이전트를 지원하며, 동적 작업 분해 및 오류 처리 능력이 개선되었습니다.
  • '브라우즈컴프 스웜' 벤치마크에서 K2.6은 86.3%를 기록하여 'GPT-5.4'의 78.4%를 능가하며 협업 능력을 입증했습니다.
  • 대규모 코드 리팩토링, 연구 분석, 멀티 포맷 생성 등 다양한 실제 업무에 적용 가능하며, 독립성과 병렬성이 높은 작업에서 효과가 극대화됩니다.
Notable Quotes & Details
  • 최대 300개 하위 에이전트 동시 운영
  • 최대 4000단계 작업 병렬 처리
  • '브라우즈컴프 스웜'에서 K2.6 86.3%, GPT-5.4 78.4%

AI 연구자, AI 개발자, 기업 의사결정자

텐센트, 오픈AI 연구원 영입 후 첫 모델 'Hy3' 출시..."작지만 강력"

텐센트가 오픈AI 연구원 출신 야오순위 영입 후 첫 AI 모델인 'Hy3 프리뷰'를 공개했으며, 이는 소형 모델임에도 불구하고 강력한 성능과 높은 비용 효율성을 자랑합니다.

  • Hy3는 2950억 개의 매개변수를 가지지만, 실제 연산에는 210억 개의 매개변수만 활성화되는 MoE(전문가 혼합) 구조를 채택하여 연산 비용을 절감했습니다.
  • 최대 25만 6천 토큰의 긴 문맥을 지원하여 장편 텍스트 처리 능력이 뛰어납니다.
  • 소프트웨어 버그 수정 능력(SWE-벤치 베리파이드)이 53%에서 74.4%로, 명령어 기반 작업 수행 능력(터미널-벤치)이 23.2%에서 54.4%로 크게 향상되었습니다.
  • 웹 탐색 기반 에이전트 성능(브라우즈컴프 기준)이 67.1%로 두 배 이상 개선되었으며, 최대 495단계의 복잡한 작업 흐름도 안정적으로 수행 가능합니다.
  • 텐센트 클라우드를 통해 API 형태로도 제공되며, 이미 위안바오, 코드버디, 워크버디 등 텐센트의 주요 제품군에 통합되었습니다.
Notable Quotes & Details
  • 총 매개변수 2950억개
  • 실제 연산에 210억개 매개변수 활성화 (MoE 구조)
  • 최대 25만 6천 토큰 지원
  • SWE-벤치 베리파이드: 53% → 74.4%
  • 터미널-벤치: 23.2% → 54.4%
  • 브라우즈컴프: 67.1%
  • 칭화대 수학 박사 자격시험 평균 88.4점

AI 개발자, AI 연구자, 기업 의사결정자, 클라우드 서비스 사용자

MS, 스페이스X 계약 이전에 커서 인수 검토했으나 포기

마이크로소프트(MS)가 AI 코딩 스타트업 커서(Cursor) 인수를 검토했으나 최종적으로 포기했으며, 이후 스페이스X가 커서를 600억 달러에 인수하기로 합의했습니다.

  • MS는 AI 코딩 시장 경쟁력 강화를 위해 커서 인수를 검토했지만, 내부 판단 후 입찰에 참여하지 않기로 결정했습니다.
  • 오픈AI 또한 지난해 커서 인수를 검토했으나 거절당한 바 있으며, 커서는 여러 기업으로부터 러브콜을 받았습니다.
  • 스페이스X는 올해 말까지 커서를 600억 달러(약 88조 원)에 인수하기로 합의했으며, 계약 무산 시 100억 달러(약 14조 8천억 원)를 지급하는 조건이 포함되었습니다.
  • 스페이스X는 이번 인수를 통해 xAI와 커서를 결합하여 코딩 및 지식 노동 전반을 아우르는 차세대 AI 플랫폼 구축을 목표로 합니다.
  • AI 코딩 시장은 오픈AI의 코덱스, 앤트로픽의 클로드 코드 등이 주도하며 치열한 경쟁을 벌이고 있습니다.
Notable Quotes & Details
  • 스페이스X, 커서 600억 달러(약 88조 원)에 인수 합의
  • 계약 무산 시 100억 달러(약 14조 8천억 원) 지급
  • MS 주가 올해 10% 하락
  • 오픈AI 코덱스 주간 활성 사용자 400만 명
  • 앤트로픽 클로드 코드 연간 반복 매출(ARR) 300억 달러(약 44조 원)

AI 산업 관계자, 투자자, 소프트웨어 개발자

포티투마루, 육군과 '군수 특화 AI 파운데이션 모델' 구축 나선다

포티투마루는 육군 군수사령부, 한국국방연구원 등과 협력하여 군수 분야에 특화된 AI 파운데이션 모델을 구축하고 국방 AI 경쟁력을 강화한다.

  • 포티투마루는 육군 군수사령부, KIDA, KISTI, 데이터메이커와 군수 분야 AX를 위한 MOU를 체결했다.
  • 'AHIA' 사업의 일환으로, 군수 분야 특화 AI 파운데이션 모델 개발을 목표로 한다.
  • 감시·정찰, 무기체계, 지휘통제 외 군수 전반의 AI 전환에 초점을 맞춘다.
  • 포티투마루는 RAG42, MRC42, LLM42 솔루션을 활용해 모델 구축을 주도한다.
  • 국방 소버린 AI의 중요성을 강조하며, 민관군 협력을 통해 국방 AI를 선도하겠다고 밝혔다.
Notable Quotes & Details
  • "클로드 미소스 사태에서 보듯 국방 소버린 AI는 사이버 핵무기에 비견될 정도로 시급하고 중요한 문제" (김동환 포티투마루 대표)
  • 2026-04-24

국방 관계자, AI 개발자, 투자자, 정책 입안자

펄어비스 '붉은사막', 첫 번째 공식 OST 앨범 발매

펄어비스가 게임 '붉은사막'의 첫 번째 공식 OST 앨범 '붉은사막 오리지널 사운드트랙 볼륨 1'을 스팀 DLC를 통해 무료로 발매했다.

  • 펄어비스가 '붉은사막'의 첫 공식 OST 앨범을 24일 발매했다.
  • 스팀 무료 다운로드 가능 콘텐츠(DLC)를 통해 MP3와 FLAC 고음질 음원으로 제공된다.
  • 총 75곡이 'Themes', 'Battles', 'Exploration', 'Bosses' 4가지 테마로 구성되어 있다.
  • 전 세계 이용자들의 요청으로 고음질 음원을 무료로 제공하게 되었다고 류휘만 총괄 오디오 디렉터가 밝혔다.
  • 향후 에픽게임즈 스토어, 스포티파이 등 주요 음원 스트리밍 사이트에서도 정식 발매될 예정이다.
Notable Quotes & Details
  • 총 75곡
  • 4개의 테마
  • 2026-04-24

'붉은사막' 게임 이용자, 게임 음악 팬

[기고] 미토스와 AI 거버넌스

앤트로픽의 '클로드 미토스' 모델 등 고성능 AI의 등장으로 인한 보안 위협과 개인정보 보호 문제에 대응하기 위한 AI 거버넌스 및 법적, 기술적 대비의 필요성을 논한다.

  • 앤트로픽의 '클로드 미토스' 모델이 보안 시스템 취약점을 파악하고 공격 방법을 고안하는 능력을 보여주며 AI 거버넌스 논의를 촉발했다.
  • 기존 규제 체계가 미토스와 같은 신기술에 적용 가능한지, 기업의 정보보안 조치가 충분한지가 문제 제기된다.
  • AI 기본법 및 개인정보보호법상 안전 확보 의무를 넘어선 고도화된 기술적 보호 조치와 위험관리체계 구축이 필요하다.
  • AI 기술 발전과 규제의 균형이 중요하며, 기업은 법령 준수 외에 AI 영향평가 등을 투명하게 기록해야 한다.
  • 미토스와 같은 고성능 AI는 사회 보안과 프라이버시 패러다임을 재정립할 필요성을 제기한다.
Notable Quotes & Details
  • 클로드 미토스
  • 2026-04-24

AI 정책 입안자, 보안 전문가, 법률 전문가, 기업 경영진, AI 개발자

Notes: 기고문 형식, 내용의 심층성

Jooojub
System S/W engineer
Explore Tags
Series
    Recent Post
    © 2026. jooojub. All right reserved.