Daily Briefing

April 5, 2026
2026-04-04
41 articles

Anthropic cuts off the ability to use Claude subscriptions with OpenClaw and third-party AI agents

Anthropic이 Claude Pro/Max 구독자의 서드파티 에이전틱 도구(OpenClaw 등) 연동을 차단하고, 추가 사용 시 pay-as-you-go 또는 API 과금으로 전환하도록 정책을 변경했다.

  • 2026-04-04 12pm PT부터 Claude Pro($20/월) 및 Max($100~$200/월) 구독자는 서드파티 에이전틱 도구에 구독을 사용할 수 없게 됨
  • 이유: 서드파티 도구들은 prompt cache hit rate 최적화가 안 되어 Anthropic의 compute·엔지니어링 자원에 과도한 부담을 줌
  • 계속 사용하려면 pay-as-you-go 'extra usage' 과금 또는 API 토큰 기반 과금으로 전환해야 함
  • Anthropic Head of Claude Code Boris Cherny가 X에서 발표했으며, OpenClaw의 cache hit rate 개선을 위한 PR도 직접 제출했다고 밝힘
  • 이전에도 5시간마다 세션 제한(토큰 감소)을 도입해 파워유저들의 불만을 샀음
Notable Quotes & Details
  • Claude Pro $20/월, Max $100~$200/월
  • Boris Cherny: "Third party services are not optimized in this way, so it's really hard for us to do sustainably"
  • 세션 제한은 사용자의 최대 7%에만 영향

Claude 구독자, AI 서비스 사용자, 개발자

Keeper Security brings zero-trust database access to its PAM platform with KeeperDB

Keeper Security가 PAM 플랫폼에 제로트러스트 기반 데이터베이스 직접 접근 기능 KeeperDB를 추가해 자격증명 평문 노출 없이 DB를 관리할 수 있도록 했다.

  • MySQL, PostgreSQL, Oracle, Microsoft SQL Server를 Keeper Vault에서 직접 접속 가능, 자격증명 평문 비노출
  • 모든 DB 세션에 역할 기반 정책 적용 및 전체 세션 레코딩으로 감사·컴플라이언스 지원
  • KeeperDB Proxy로 pgAdmin, MySQL Workbench, DBeaver 등 기존 클라이언트 계속 사용 가능하면서 중앙 정책 유지
  • RSA Conference 2026 San Francisco에서 발표, 18개 업계 상 수상
  • SOC 2, HIPAA, PCI DSS 등 컴플라이언스 환경에서 자격증명 분산 문제를 해결
Notable Quotes & Details
  • RSA Conference 2026에서 18개 업계 상 수상
  • Darren Guccione CEO: "KeeperDB represents a natural evolution of our zero-trust architecture"

기업 보안 담당자, DBA, IT 운영팀

NinjaOne offers a free trial of the IT management platform trusted by 35,000 organisations

통합 IT 운영 플랫폼 NinjaOne이 신용카드 없이 무료 체험을 제공한다는 홍보 기사로, 플랫폼의 주요 기능과 경쟁 우위를 소개한다.

  • 엔드포인트 관리, 자동화 패치, 원격 접속, 백업, MDM을 단일 클라우드 플랫폼으로 통합
  • Windows, macOS, Linux, 모바일 엔드포인트를 단일 콘솔에서 관리
  • 2026년 2월 IT 자산 관리 모듈, 2026년 3월 취약점 관리 모듈 출시
  • 2026년 1월 ARR $500M 돌파, Gartner Magic Quadrant for Endpoint Management Tools 최초 진입 시 Leader 선정
  • Kaseya·ConnectWise와 달리 인수합병 없이 단일 플랫폼으로 구축
Notable Quotes & Details
  • ARR $500M (2026년 1월)
  • Gartner Peer Insights '추천 의향' 96%
  • 35,000개 이상 조직이 사용

IT 운영팀, 시스템 관리자, MSP

Notes: 홍보성 기사 (affiliate links 포함, 'Disclosure' 명시)

Hackers breached the European Commission by poisoning the security tool it used to protect itself

사이버범죄 그룹 TeamPCP가 오픈소스 보안 스캐너 Trivy를 공급망 공격으로 침해하여 유럽위원회 AWS 인프라에서 92GB 데이터를 탈취했고, ShinyHunters가 이를 다크웹에 공개했다.

  • TeamPCP가 Trivy의 GitHub 리포지토리 77개 버전 태그 중 76개에 악성 코드를 삽입하는 공급망 공격 수행
  • 2026-03-19 유럽위원회가 악성 Trivy 버전을 다운로드, AWS API 키가 탈취되어 IAM·EC2·RDS·S3·Lambda 등 광범위하게 침해
  • TruffleHog으로 추가 자격증명 스캔, 신규 액세스 키 생성으로 탐지 우회 후 대량 데이터 추출
  • 침해 5일 후인 2026-03-24에서야 탐지, 2026-03-27 공개 발표, 2026-03-28 ShinyHunters가 다크웹 공개
  • 유출 데이터: 71개 EU 기관 클라이언트의 이메일·개인정보 포함 92GB 압축 데이터
Notable Quotes & Details
  • 92GB 압축 데이터 유출
  • 71개 EU 기관 클라이언트 피해
  • Trivy-action 리포지토리 77개 태그 중 76개 감염
  • 초기 침해일 2026-03-19, 탐지일 2026-03-24 (5일 경과)

보안 전문가, IT 관리자, 오픈소스 유지관리자, 정책 담당자

Anthropic is having a moment in the private markets; SpaceX could spoil the party

Anthropic이 사모 주식 2차 시장에서 가장 뜨거운 거래 대상으로 부상했으나, SpaceX의 임박한 IPO가 투자 자본을 빨아들여 시장 구도를 바꿀 수 있다는 전망이다.

  • Rainmaker Securities 사장 Glen Anderson에 따르면 사모 시장에서 Anthropic이 가장 활발한 거래 대상
  • OpenAI는 2차 시장에서 비중이 줄어드는 추세
  • SpaceX의 IPO 임박이 사모 시장 전반의 투자 흐름을 재편할 것으로 예상
Notable Quotes & Details

투자자, 금융 관계자, AI 업계 관계자

Notes: 본문이 매우 짧아 내용 불완전

Really, you made this without AI? Prove it

AI 생성 콘텐츠가 범람하는 환경에서 인간 창작물에 'AI-free' 라벨을 붙이자는 논의가 확산되고 있지만, 12개 이상의 대안이 난립하며 표준화가 이루어지지 않고 있다.

  • 현재 AI-free 라벨링 솔루션이 12개 이상 존재하지만 상호 호환성이 없고 검증 방식도 제각각
  • C2PA 콘텐츠 자격증명 표준은 업계 광범위한 지원을 받았음에도 실효성이 없음
  • Instagram 헤드 Adam Mosseri는 AI 콘텐츠에 라벨을 붙이기보다 실제 미디어에 fingerprint를 붙이는 것이 현실적이라고 언급
  • Made by Human 등 일부 서비스는 순수 신뢰 기반으로 운영, 실제 출처 검증 불가
  • AI 감지 서비스는 신뢰도가 낮아 라벨링 근거로 삼기 어려움
Notable Quotes & Details
  • Reuters Institute 조사: 뉴스 사이트·소셜미디어·검색 결과가 AI 생성물로 가득하다는 인식 확산
  • Adam Mosseri (Instagram 헤드): "더 현실적인 방법은 가짜 미디어가 아닌 진짜 미디어에 fingerprint를 붙이는 것"

콘텐츠 창작자, 미디어·플랫폼 종사자, 일반 독자

Netflix AI Team Just Open-Sourced VOID: an AI Model That Erases Objects From Videos — Physics and All

Netflix와 INSAIT Sofia University 연구팀이 물리적 상호작용까지 인식하여 비디오에서 객체를 자연스럽게 제거하는 AI 모델 VOID(Video Object and Interaction Deletion)를 오픈소스로 공개했다.

  • 기존 비디오 인페인팅과 달리 제거 객체의 물리적 인과관계까지 처리 (예: 사람 제거 시 들고 있던 기타가 중력에 의해 자연스럽게 낙하)
  • CogVideoX-Fun-V1.5-5b-InP(Alibaba PAI)를 기반으로 interaction-aware quadmask conditioning을 적용해 파인튜닝
  • ProPainter, DiffuEraser, Runway, MiniMax-Remover, ROSE, Gen-Omnimatte보다 우수한 성능
  • 기본 해상도 384×672, 최대 197 프레임 처리 가능
  • arxiv 논문(2604.02296) 공개 및 오픈소스 모델 제공
Notable Quotes & Details
  • 5B 파라미터 모델
  • 최대 197 프레임 처리
  • arxiv: 2604.02296

AI 연구자, 비디오 편집 개발자, 컴퓨터 비전 연구자

How to Build Production-Ready Agentic Systems with Z.AI GLM-5 Using Thinking Mode, Tool Calling, Streaming, and Multi-Turn Workflows

Z.AI의 GLM-5 모델을 사용하여 스트리밍, Thinking Mode, 멀티턴 대화, 함수 호출, 구조화 출력 등 프로덕션급 에이전틱 시스템을 구축하는 방법을 단계별로 설명하는 튜토리얼이다.

  • zai-sdk와 OpenAI 호환 인터페이스를 통해 GLM-5 모델에 접근
  • 스트리밍 응답으로 실시간 토큰 출력 구현 가능
  • Thinking Mode(Chain-of-Thought) 활성화로 수학·논리·코딩 문제에서 내부 추론 과정 노출 가능
  • 함수 호출(tool calling)과 구조화 출력(structured output)으로 실용적인 멀티툴 에이전트 구성
  • 멀티턴 대화 및 스케일러블 에이전틱 워크플로우 전체 구현 방법 포함
Notable Quotes & Details

AI 개발자, 엔지니어, LLM 애플리케이션 개발자

The Overlooked Repetitive Lengthening Form in Sentiment Analysis

온라인 커뮤니케이션에서 오랫동안 무시되어 온 반복 연장형(RLF) 표현이 감성 분석에 미치는 영향과 LLM의 이해 능력을 탐구한 연구

  • 반복 연장형(RLF, Repetitive Lengthening Form)은 밈·이모지와 같은 비공식 표현으로, 감성 분석에서 중요하지만 그동안 연구가 부족했음
  • RLF에 특화된 멀티도메인 데이터셋 'Lengthening'(85만 샘플)을 최초로 구축
  • 설명 가능한 지시 튜닝 프레임워크 ExpInstruct를 도입해 LLM의 RLF 이해 성능과 설명 능력을 향상
  • 파인튜닝된 사전학습 언어모델(PLM)은 RLF 성능에서 zero-shot GPT-4를 능가하지만, 설명력에서는 GPT-4에 미치지 못함
  • ExpInstruct를 적용한 오픈소스 LLM은 제한된 샘플로 성능과 설명력 모두에서 zero-shot GPT-4 수준에 도달
Notable Quotes & Details
  • 데이터셋 규모: 850k 샘플
  • 코드 및 샘플 데이터: https://github.com/Tom-Owl/OverlookedRLF

NLP 연구자, 감성 분석 및 비공식 텍스트 처리 전문가

Scaling Reasoning Tokens via RL and Parallel Thinking: Evidence From Competitive Programming

강화학습(RL)과 병렬 사고(Parallel Thinking)를 통해 경쟁 프로그래밍에서 추론 토큰 예산을 효율적으로 스케일링하는 방법을 연구한 논문

  • RL 훈련 중 검증 정확도와 평균 생성 추론 토큰 수 사이에 근사적 로그-선형 관계가 관찰됨
  • 검증 RL 워밍업(Verification RL warmup)은 훈련 시작점을 높이고, 무작위 클리핑(Randomized clipping)은 더 가파른 상승 추세를 만듦
  • 멀티라운드 병렬 사고 파이프라인을 도입해 토큰 예산을 여러 스레드와 라운드에 분산
  • 모델을 파이프라인에 맞게 end-to-end로 학습시켜 훈련 목표와 테스트 구조를 일치시킴
  • Seed-OSS-36B 기반 최종 시스템이 AetherCode의 456개 난이도 높은 문제에서 GPT-5-high를 능가
Notable Quotes & Details
  • 16 스레드 × 16 라운드 구성에서 문제당 평균 760만 토큰 사용
  • 기반 모델: Seed-OSS-36B
  • 비교 대상: GPT-5-high (AetherCode 456개 문제)

AI 연구자, 강화학습 및 LLM 추론 스케일링 연구자

M2-Verify: A Large-Scale Multidomain Benchmark for Checking Multimodal Claim Consistency

과학적 주장과 멀티모달 증거 간의 일관성을 검증하기 위한 대규모 멀티도메인 벤치마크 M2-Verify를 소개하는 연구

  • 기존 벤치마크는 규모, 도메인 다양성, 시각적 복잡성이 부족하여 현실적인 평가가 어려웠음
  • PubMed와 arXiv에서 수집한 16개 도메인, 469K+ 인스턴스로 구성된 M2-Verify 데이터셋 구축
  • 전문가 감사를 통해 엄격하게 검증됨
  • 최신 모델들도 일관성 유지에 어려움을 겪으며, 저복잡도 의료 변형에서는 85.8% Micro-F1을 달성하지만 해부학적 이동 등 고복잡도 과제에서는 61.6%로 하락
  • 모델이 정렬 결정에 대한 과학적 설명 생성 시 할루시네이션이 발생함을 전문가 평가로 확인
Notable Quotes & Details
  • 데이터셋 규모: 469K+ 인스턴스, 16개 도메인
  • 저복잡도 의료 변형 Micro-F1: 85.8%
  • 고복잡도 해부학적 이동 과제 Micro-F1: 61.6%

멀티모달 AI 연구자, 과학적 사실 검증 시스템 개발자

Preference learning in shades of gray: Interpretable and bias-aware reward modeling for human preferences

인간 선호도 학습의 한계를 탐구하고, 해석 가능한 특성 증강 프레임워크로 리워드 모델링을 개선한 연구

  • Anthropic HHRLHF 데이터셋을 사용해 10개 LLM을 표준 쌍대 선호도 설정에서 평가한 결과 기준 성능이 ROC AUC 0.74 미만으로 낮음
  • 응답 길이, 거부 지표, 독성 점수, 프롬프트-응답 시맨틱 유사도 등 해석 가능한 신호를 텍스트 표현에 추가하는 하이브리드 접근법 제안
  • 하이브리드 접근법 적용 시 모든 모델에서 일관된 성능 향상, 최대 ROC AUC 0.84 달성
  • DeBERTav3Large가 최고 성능을 보임
  • SHAP·LIME을 통한 설명 가능성 분석에서 모델 결정은 개별 키워드보다 맥락적 안전성과 지지적 프레이밍에 의존함을 확인
Notable Quotes & Details
  • 기준 성능: ROC AUC < 0.74
  • 하이브리드 접근법 최대 성능: ROC AUC 0.84
  • 사용 데이터셋: Anthropic HHRLHF
  • 최고 성능 모델: DeBERTav3Large

RLHF 및 인간 선호도 학습 연구자, AI 정렬 연구자

Procedural Knowledge at Scale Improves Reasoning

과거 추론 궤적에서 절차적 지식을 추출·재사용하는 RAG 프레임워크 'Reasoning Memory'를 통해 LLM 추론 성능을 향상시킨 연구

  • 기존 테스트 타임 스케일링 방법은 문제를 독립적으로 처리하여 이전 추론 궤적의 절차적 지식을 재사용하지 못하는 한계가 있음
  • 단계별 추론 궤적을 자기 완결적인 서브질문-서브루틴 쌍으로 분해하여 3,200만 개의 절차적 지식 엔트리 데이터스토어 구축
  • 추론 중 모델이 핵심 서브질문을 언어화하고 관련 서브루틴을 검색하여 다양한 절차적 사전(Prior)으로 활용
  • 수학·과학·코딩 6개 벤치마크에서 문서·궤적·템플릿 기반 RAG 및 컴퓨트 매칭 테스트 타임 스케일링 기준선 대비 일관된 성능 향상
  • 검색 없음 대비 최대 19.2%, 가장 강한 컴퓨트 매칭 기준선 대비 7.9% 성능 향상
Notable Quotes & Details
  • 데이터스토어 규모: 3,200만 개 절차적 지식 엔트리
  • 검색 없음 대비 최대 19.2% 향상
  • 최강 컴퓨트 매칭 기준선 대비 7.9% 향상
  • 평가 벤치마크: 수학·과학·코딩 6개

LLM 추론 연구자, RAG 시스템 개발자, AI 연구자

OpenAI, 미디어 기업 TBPN 인수

OpenAI가 AI 관련 글로벌 대화를 가속화하기 위해 라이브 테크 토크쇼 기업 TBPN을 인수했다.

  • OpenAI가 기술·비즈니스·문화 분야 라이브 테크 토크쇼 미디어 기업 TBPN을 공식 인수
  • TBPN은 인수 후에도 편집 독립성을 계약상 보호받으며 자체 운영 유지
  • TBPN은 OpenAI의 Strategy 조직에 편입되어 Chris Lehane에게 보고
  • OpenAI는 기존 기업 커뮤니케이션 방식이 자사에 부적합하다고 보고 AI 변화에 대한 건설적 대화 확대 의도
  • 커뮤니티에서는 묵시적 영향력 우려와 독립 언론 자금 조달 방식에 대한 논의가 이어짐
Notable Quotes & Details
  • The New York Times는 TBPN을 '실리콘밸리의 새로운 집착 대상'이라 표현
  • TBPN 방송 시간은 평일 오전 11시~오후 2시(PT)

AI 업계 종사자, 미디어 및 테크 커뮤니티 관심자

Samsung Magician 디스크 유틸리티 제거하려면 18단계와 두 번의 재부팅 필요

macOS용 Samsung Magician을 제거하려면 수동 삭제, SIP 비활성화, 복구 모드 부팅 등 총 18단계와 2회 재부팅이 필요하다는 사용자 경험 공유.

  • macOS용 Samsung Magician에는 삭제 버튼이 없고, 내부 정리 스크립트 실행 시 500회 이상 오류 발생
  • 수동 삭제 후에도 커널 확장 파일 8개가 SIP에 의해 보호되어 복구 모드 진입 필요
  • 완전 제거를 위해 복구 모드 부팅 2회와 SIP 비활성화·재활성화 포함 총 18단계 절차 요구
  • 앱 내부에 150개 이상의 PNG 애니메이션 파일, Electron 프레임워크, Squirrel 자동 업데이터 등 과도한 구성 요소 포함
  • 배너 광고 이미지와 10개 언어 도움말 문서까지 포함한 전형적인 bloatware 구조로 평가
Notable Quotes & Details
  • 클린업 스크립트 실행 시 500회 이상 'chown: Operation not permitted' 오류 발생
  • 'Health: Good' 상태 표시를 위해 PNG 파일 150개 사용

macOS 사용자, Samsung SSD 사용자, 소프트웨어 품질에 관심 있는 개발자

Claude, 이제 OpenClaw 같은 써드파티에서 구독 모델 사용 불가

Anthropic이 Claude 구독 플랜으로 OpenClaw 등 서드파티 툴 사용을 금지하고, 할인 번들 구매 또는 API 키 사용으로 전환을 요구하는 정책 변경을 발표했다.

  • PT 2026-04-05 12시(한국시간 2026-04-06 04시)부터 Claude 구독 플랜으로 서드파티 툴 사용 불가
  • 기존 구독자에게는 월정액 상당의 일회성 크레딧 제공, 전액 환불 옵션도 제공
  • Claude Code, Agent SDK 등 Anthropic 자체 제품을 활용하는 로컬 툴은 계속 사용 가능
  • 커뮤니티에서는 재정 문제보다 용량 제약(capacity constraint)과 기업 고객 우선 배분 전략이 실제 이유라는 분석이 주를 이룸
  • $200/월 구독자 등 헤비 유저들의 불만과 안정성 요구가 높음
Notable Quotes & Details
  • 정책 발효 시점: PT 2026-04-05 12:00 (한국시간 2026-04-06 04:00)
  • $200/월 구독은 '옵션 가치'로 유지되는 일반 구독과 다른 성격

Claude 구독 사용자, AI 개발자, 서드파티 AI 툴 사용자

Show GN: Lectone - PDF/PPT 올리면 AI가 강의 영상으로 만들어 드립니다

PDF나 PPT를 업로드하면 AI가 자동으로 강의 영상을 생성해주는 서비스 Lectone을 소개하는 긱뉴스 게시물이다.

  • 슬라이드를 업로드하면 앞뒤 맥락이 자연스러운 스크립트를 자동 생성
  • AI 음성 녹음과 영상 제작까지 한 플랫폼에서 완결
  • 강사, 학생 등 강의 자료를 영상으로 변환하고 싶은 사용자를 대상으로 함
  • 현재 무료 베타 운영 중이며 피드백 수집 중
  • 커뮤니티에서는 데모 영상이나 예제 스크린샷 부재를 아쉬운 점으로 지적
Notable Quotes & Details

강사, 학생, 교육 콘텐츠 제작자

Notes: 서비스 홍보성 게시물 (Show GN 형식)

Gemma 4 비주얼 가이드

Google DeepMind의 Gemma 4 모델 패밀리 아키텍처를 시각적으로 설명하는 가이드로, 어텐션 구조, 비전 인코더, MoE 등 핵심 기술을 상세히 다룬다.

  • Gemma 4는 E2B·E4B·31B·26B A4B 4가지 모델로 구성되며 모두 이미지 입력 지원
  • 로컬 어텐션(슬라이딩 윈도우)과 글로벌 어텐션 레이어 교차 배치, 마지막 레이어는 항상 글로벌 어텐션으로 고정
  • 글로벌 어텐션에 GQA, K=V 기법, p-RoPE 3가지 효율화 기법 동시 적용
  • 소형 모델(E2B·E4B)은 Per-Layer Embeddings(PLE)로 VRAM 최소화 및 오디오 인코더 탑재
  • 비전 인코더는 2D RoPE 도입으로 가변 종횡비·해상도 지원, 소프트 토큰 버짓으로 LLM에 전달되는 패치 임베딩 수 제한
Notable Quotes & Details
  • 26B A4B MoE 모델은 추론 시 40억 파라미터만 활성화
  • 소형 모델 슬라이딩 윈도우 크기 512토큰, 대형 모델 1024토큰
  • 소프트 토큰 버짓 선택 옵션: 70, 140, 280, 560, 1120

AI 연구자, ML 엔지니어, 모델 아키텍처에 관심 있는 개발자

[D] ICML reviewer making up false claim in acknowledgement, what to do?

ICML 리버설 과정에서 리뷰어가 논문에 없는 허위 주장을 제기한 경우 어떻게 대응해야 하는지 커뮤니티에 묻는 글이다.

  • 리버설 acknowledgement에서 리뷰어가 논문에 없는 허위 주장을 제기함
  • 저자는 하이퍼파라미터 비교를 철저히 수행했으나 리뷰어의 주장은 근거 없음
  • 대응 방법에 대한 커뮤니티 조언을 요청
Notable Quotes & Details

AI/ML 연구자, ICML 논문 저자

Notes: 본문이 매우 짧고 커뮤니티 댓글 내용은 포함되지 않음

[D] please if you are a reviewer and you say in your rebuttal acknowledgement that you're going to increase your score please do it right after

리버설 acknowledgement에서 점수 인상을 약속하고 즉시 반영하지 않는 리뷰어에 대한 저자의 불만을 토로하는 글이다.

  • 리뷰어가 점수 인상을 약속하고 즉시 반영하지 않아 저자가 하루 종일 스트레스를 받음
  • acknowledgement 마감 1시간 전에 리버설을 확인하고 점수 인상을 언급했으나 아직 미반영
  • AC가 토론 내용을 보고 점수가 이미 올라간 것으로 오해할 수 있어 AC에 별도 연락이 필요한 상황
  • 점수 인상은 10초짜리 작업임에도 지연되어 저자에게 큰 부담을 줌
  • 학술 컨퍼런스 리뷰 프로세스에서 저자가 겪는 심리적 부담을 호소
Notable Quotes & Details
  • "Upgrading a score is a 10s task unless you're the queen or king of procrastination"

AI/ML 연구자, 학술 컨퍼런스 논문 저자

[D] ICML Reviewer Acknowledgement

ICML 토론 기간에 대한 혼란을 묻는 글로, 리뷰어 acknowledgement 기간이 끝났는지, 리뷰어가 4월 7일 이전에 점수를 변경할 수 있는지 질문한다.

  • ICML 토론 기간 중 리뷰어 acknowledgement 기간이 끝났는지 여부 질문
  • 4명 중 1명의 리뷰어가 응답을 남기지 않음
  • 리뷰어가 2026-04-07 이전에 점수를 변경할 수 있는지 문의
Notable Quotes & Details
  • 점수 변경 마감: 2026-04-07

AI/ML 연구자, ICML 논문 저자

Notes: 매우 짧은 질문 게시물

[P] GPU friendly lossless 12-bit BF16 format with 0.03% escape rate and 1 integer ADD decode works for AMD & NVIDIA

BF16 가중치를 12비트로 무손실 압축하여 AMD·NVIDIA GPU에서 정수 ADD 1회만으로 디코딩 가능한 새로운 추론 최적화 포맷 연구 프로토타입 공개.

  • 8비트 지수를 4비트 그룹 코드로 대체하여 12비트에 BF16 가중치 저장, 99.97% 가중치는 정수 ADD 1회로 디코딩
  • 바이트 정렬 분할 저장으로 HBM 읽기 증폭 없음, 비트 완벽 재구성(zero precision loss)
  • 퓨전 decode+matmul 커널로 별도 압축 해제 단계 불필요, AMD·NVIDIA 모두 지원
  • RTX 5070 Ti에서 Llama 2 7B 단일 사용자 기준 64.7 tok/s (vLLM 대비 1.47x), 다중 사용자 기준 2.70x 향상
  • Llama 3.1 405B에서 이스케이프율 0.034%, 다양한 모델 유형에서 안정적
Notable Quotes & Details
  • Llama 2 7B 멀티유저(B=256): 2931 vs 1086 tok/s (vLLM 대비 2.70x)
  • Mistral 7B 멀티유저: 2554 vs 872 tok/s (vLLM 대비 2.93x)
  • Llama 3.1 8B: vLLM OOM on 16GB, 본 포맷으로 실행 가능

ML 엔지니어, GPU 추론 최적화 연구자, AI 인프라 개발자

Considering NeurIPS submission [D]

새로운 에이전틱 시스템의 수렴에 대한 수학적 증명과 실제 적용 사례를 담은 논문을 NeurIPS에 제출할지 고민하는 글이다.

  • 저자는 새로운 에이전틱 시스템의 수렴에 대한 공식 수학적 증명과 실제 응용 사례 보유
  • 기존 벤치마크가 실제 데이터의 복잡성을 반영하지 못해 합성 데이터 실험 결과가 미흡
  • 예제가 적은 상태로 NeurIPS에 제출할지, 더 많은 데이터를 확보한 후 제출할지 커뮤니티 조언 요청
Notable Quotes & Details

AI/ML 연구자, 학술 논문 저자

Notes: 매우 짧은 질문 게시물

People anxious about deviating from what AI tells them to do?

ChatGPT의 지시와 다른 제품 사용 설명서 내용이 충돌할 때 AI 말을 따르려는 친구의 모습에서, AI 지시에 불안함을 느끼는 사람들에 대한 경험을 공유한 글이다.

  • 친구가 ChatGPT의 헤어 염색 방법을 제품 설명서보다 신뢰하며 다른 방법을 따르는 것에 스트레스를 받음
  • 제조사 지침이 명확히 존재함에도 AI 지시를 거스르는 것에 가시적인 불안감을 보임
  • AI 의존성과 AI 권위에 대한 심리적 복종 현상에 대해 커뮤니티 경험 공유 요청
Notable Quotes & Details

일반 대중, AI 사회적 영향에 관심 있는 독자

I am seeing Claude everywhere

소셜 미디어에서 Claude AI를 칭찬하는 콘텐츠가 급증하는 현상에 대해 의문을 품은 사용자의 경험을 공유하는 글이다.

  • Instagram 릴스·TikTok에서 Claude를 최고의 AI 도구로 극찬하는 콘텐츠가 급증
  • 강력한 마케팅 프로그램인지, 실제로 다른 AI보다 뛰어난지 의문 제기
  • 직접 사용해봤으나 ChatGPT와 큰 차이를 느끼지 못했다는 개인 경험 공유
  • 코딩 분야에서 약간 더 낫다는 평가를 들었지만 소셜에서의 과도한 칭찬은 의아함
Notable Quotes & Details

일반 AI 사용자, AI 도구 비교에 관심 있는 독자

The one AI story writing platform that I love to use: My two weeks experience and two cents

AI 스토리 글쓰기 플랫폼 Bookswriter에 대한 2주간 사용 경험을 공유하며, 무료 크레딧 시스템과 AI 모델 선택 방식을 소개하는 글이다.

  • Bookswriter는 Wattpad와 유사한 챕터·책 구성 방식의 AI 스토리 글쓰기 플랫폼
  • 무료 크레딧 제공, Deepseek 같은 저렴한 모델 선택 시 50챕터 이상 작성 가능
  • 사용자가 장면, 스토리 바이블, 챕터 아이디어를 설정한 후 AI가 생성하는 방식
  • 리뷰 작성을 통해 크레딧을 얻는 방식으로 플랫폼을 무료로 유지
  • AI 글쓰기 도구를 처음 사용하는 초보자에게 유용한 진입점
Notable Quotes & Details
  • Deepseek 모델로 무료 크레딧만으로 최대 50챕터 이상 작성

창작 글쓰기에 관심 있는 일반 독자, AI 글쓰기 툴 입문자

Notes: 홍보성 게시물로 보임 (Bookswriter 서비스 추천)

Upload Yourself Into an AI in 7 Steps

Reddit 활동 기록을 내보내 AI로 분석하여 자신의 디지털 트윈(성격 프로파일)을 생성하는 단계별 가이드이다.

  • Reddit 데이터 요청 → 추출 → AI에 업로드하여 성격 프로파일 생성하는 7단계 가이드
  • GDPR, CCPA 등 관할권별 데이터 요청 방법 안내
  • AI 분석 프롬프트: 언어·어조, 인지 스타일, 행동 패턴, 관심사·정체성, 사회적 상호작용 스타일, 종합 분석 등 6단계 Phase로 구성
  • Big Five 성격 특성(개방성, 성실성, 외향성, 친화성, 신경증)으로 근사치 산출
  • 개인정보 주의: IP 로그, DM, 이메일 주소 등 민감 파일이 포함될 수 있어 업로드 전 검토 권장
Notable Quotes & Details
  • "Privacy note: Your export may include sensitive files (IP logs, DMs, email addresses). You only need the post and comment CSVs."

일반 AI 사용자, 자기 분석에 관심 있는 독자

Gemma 4 fixes in llama.cpp

Gemma 4 모델을 llama.cpp에서 안정적으로 사용하려면 transformers 구현이 아닌 llama.cpp의 수정 사항이 반영될 때까지 며칠을 기다려야 한다는 팁을 공유하는 글이다.

  • Gemma 4 출시 후 llama.cpp에 여러 수정 PR이 이미 반영 또는 진행 중
  • 신규 모델 출시 후 llama.cpp에서 안정적으로 사용하려면 며칠의 대기 시간이 필요
  • 루핑 문제는 더 나은 프롬프트 구성으로 해결될 수 있다는 경험 공유
  • OpenCode에서의 실제 사용에서는 문제 없었음
Notable Quotes & Details

로컬 LLM 사용자, AI 개발자, llama.cpp 사용자

FINALLY GEMMA 4 KV CACHE IS FIXED

llama.cpp에서 Gemma 4의 KV 캐시 문제가 수정되어 과도한 VRAM 사용 문제가 해결되었다는 간단한 공지 글이다.

  • llama.cpp 업데이트로 Gemma 4 KV 캐시 문제 해결
  • 기존에는 극도로 과도한 VRAM 사용 문제가 있었음
Notable Quotes & Details

로컬 LLM 사용자, llama.cpp 사용자

Notes: 내용 불완전 — 본문이 매우 짧음

We gave 12 LLMs a startup to run for a year. GLM-5 nearly matched Claude Opus 4.6 at 11× lower cost.

12개의 LLM이 가상 스타트업 CEO 역할을 1년간 수행하는 YC-Bench 벤치마크에서 GLM-5가 Claude Opus 4.6 성능의 95%를 11배 낮은 비용으로 달성했다.

  • YC-Bench: LLM이 가상 스타트업 CEO로서 수백 턴에 걸쳐 직원 관리, 계약 선택, 급여 처리를 수행하는 벤치마크
  • 1위 Claude Opus 4.6 ($86/run, 평균 최종 자금 $1.27M), 2위 GLM-5 ($7.62/run, $1.21M), 3위 GPT-5.4 ($23/run, $1.00M)
  • 하위 모델들은 모두 초기 자본($200K) 이하 성과를 기록하며 일부는 파산
  • 성공의 핵심 지표는 모델 크기나 벤치마크 점수가 아닌 지속적 스크래치패드 활용 여부 (상위 모델 평균 34회 재작성)
  • Kimi-K2.5는 API 달러당 수익 차트에서 1위 (차순위 대비 2.5x)
Notable Quotes & Details
  • GLM-5: Claude Opus 4.6 대비 5% 차이 성능, 비용은 11분의 1 ($7.62 vs $86/run)
  • 상위 모델 스크래치패드 재작성 횟수 평균 ~34회, 하위 모델 0~2회
  • 논문: https://arxiv.org/abs/2604.01212

AI 연구자, LLM 성능 비교에 관심 있는 개발자, AI 인프라 의사결정자

아르시, 추론 모델 '트리니티-라지-싱킹' 출시...에이전트 성능은 '클로드급'

미국 오픈소스 스타트업 아르시 AI가 에이전트 성능이 클로드 오퍼스 4.6에 근접하는 오픈소스 추론 모델 '트리니티-라지-싱킹'을 출시했다.

  • 약 4000억개 파라미터의 희소 MoE 구조를 채택했으나 실제 연산 시 약 130억개만 활성화해 효율성 극대화
  • 자율형 에이전트 벤치마크 핀치벤치(PinchBench)에서 91.9점으로 클로드 오퍼스 4.6(93.3점)에 이어 2위 기록
  • AIME25에서 96.3점으로 키미-K2.5와 동등, 딥시크·GLM-5·미니맥스 등 중국 주요 모델 상회
  • 26만 토큰 이상의 긴 컨텍스트 지원, 아파치 2.0 라이선스로 상업적 활용 가능
  • API 기준 출력 토큰 100만개당 0.9달러로 경쟁 모델 대비 약 96% 저렴
Notable Quotes & Details
  • 핀치벤치 점수: 트리니티-라지-싱킹 91.9점 vs 클로드 오퍼스 4.6 93.3점
  • AIME25: 96.3점 (키미-K2.5 동급, GLM-5 93.3점·미니맥스-M2.7 80.0점 상회)
  • SWE-벤치 베리파이드: 63.2점 (클로드 오퍼스 4.6의 75.6점에 미치지 못함)
  • 출력 토큰 100만개당 0.9달러

AI 개발자, 오픈소스 AI 관심자, 기업 AI 도입 담당자

알리바바, 차세대 영상 모델 '완2.7-비디오' 공개

알리바바가 영상 생성·편집·재구성을 통합한 멀티모달 AI 영상 모델 '완2.7-비디오(Wan2.7-Video)'를 공개했다.

  • 텍스트·이미지·영상·음성 등 멀티모달 입력을 동시에 처리하는 통합 영상 제작 모델
  • 최대 1080p 해상도, 2~15초 길이의 영상 생성 지원
  • 자연어 명령으로 객체 삭제·교체·색상 변경·배경 전환 등 편집 가능
  • 최대 5장의 이미지와 음성 데이터를 활용해 특정 인물 외형·목소리 일관성 유지
  • 오픈소스로는 공개되지 않아 접근성과 활용 범위에 제약 존재
Notable Quotes & Details
  • 최대 해상도 1080p, 영상 길이 2~15초
  • 최대 5장의 이미지·영상·음성 활용 가능

영상 제작자, 콘텐츠 크리에이터, AI 미디어 관심자

이상훈 플래티어 대표 "DX에서 AX로 전환해 매출 반등"

한국 소프트웨어 기업 플래티어가 DX에서 AX(AI 전환) 기업으로 전환하며 2025년 매출이 전년 대비 30.3% 증가한 389억원을 기록했다.

  • 통합 AX 플랫폼 '엑스젠(XGEN)'이 LLM 적용·에이전트 개발·오케스트레이션을 지원하며 매출 성장 견인
  • 롯데홈쇼핑에 검수 에이전트 도입으로 실물 검수 외 업무 자동화 달성
  • 제주은행 PoC에서 경쟁사 60% 미만 대비 90% 이상 정확도 기록
  • 자체 개발 문서 판독 파서(Parser) 모델이 타사 대비 테이블 포함 PDF 15%, 이미지 문서 20%, 한글(hwp) 문서 25% 높은 정확도
  • 엑스젠 도입 후 평균 6~8주 내 성과 도출 가능
Notable Quotes & Details
  • 2025년 매출 389억원, 전년 대비 30.3% 증가
  • 제주은행 PoC 정확도: 경쟁사 60% 미만 → 엑스젠 초기 70%, 최종 90% 이상
  • 도입 성과 도출 기간: 평균 6~8주

기업 AI 도입 담당자, IT 의사결정자, 국내 SW 업계 관심자

브록먼 오픈AI 사장 "차세대 모델 '스퍼드'로 AGI 가시권 확보"

오픈AI 그렉 브록먼 사장이 차세대 통합 기반 모델 '스퍼드(Spud)'의 사전 학습 완료를 공개하며 AGI 달성에 대한 명확한 전망을 밝혔다.

  • 스퍼드는 MoE·멀티모달·추론(CoT)·에이전트 등 지난 2년간의 아키텍처 혁신을 사전 학습 단계부터 통합한 최초의 응집형 기반 모델
  • 사용자가 프롬프트 엔지니어링 없이도 모델이 사용자 의도를 직관적으로 파악하는 수준으로 개선
  • 브록먼 사장: 'AGI로 가는 길의 70~80%에 도달했으며 나머지 과정에 대한 명확한 시야를 확보'
  • AI가 AI 연구를 돕는 '자기 개선 루프(Self-improving loops)' 단계 진입으로 개발 가속화
  • 알트먼 CEO는 '몇 주 안에 매우 강력한 모델이 공개될 것'이라고 내부 공지
Notable Quotes & Details
  • "나는 AGI로 가는 길의 70~80% 정도에 와 있다고 느낀다. 이제 나머지 과정을 어떻게 완수해야 할지에 대한 명확한 시야를 확보했다" — 그렉 브록먼
  • "몇 주 안에 매우 강력한 모델이 공개될 것" — 샘 알트먼 (내부 공지)

AI 연구자, 업계 관계자, AGI 동향 관심자

머스크, 스페이스X IPO 참여 은행에 수천만달러 규모 '그록' 구독 요구

일론 머스크가 스페이스X IPO 참여 투자은행·로펌·회계법인에 AI 챗봇 그록(Grok) 구독을 사실상 의무화한 것으로 알려졌다.

  • IPO 자문사들에 수천만달러 규모의 그록 구독을 요구, 일부 은행은 이미 내부 IT 시스템에 그록 통합 시작
  • 스페이스X IPO는 기업가치 1조달러 이상, 500억달러 이상 조달 예상으로 월가 최대 딜 중 하나
  • 뱅크오브아메리카·시티그룹·골드만삭스·JP모건·모건스탠리 등 주요 투자은행 참여 예정
  • 그록은 챗GPT·클로드·제미나이 대비 시장 점유가 낮으며 반유대주의 콘텐츠 논란 등으로 규제 조사를 받은 전력이 있음
  • 이번 계약을 계기로 그록의 수익 구조가 개인 사용자에서 기업 시장으로 확장될 전망
Notable Quotes & Details
  • 스페이스X IPO 예상 기업가치: 1조달러(약 1500조원) 이상
  • 예상 조달 금액: 500억달러(약 75조원) 이상
  • 예상 자문 수수료: 5억달러(약 7500억원) 이상
  • 스타링크 2024년 매출: 약 80억달러(약 12조원)

금융·투자 업계 관계자, AI 비즈니스 관심자, 일반 독자

Is increasing VRAM finally worth it? I ran the numbers on my Windows 11 PC

생성형 AI 붐과 경기 불안으로 RAM 가격이 급등한 상황에서 가상 RAM(Virtual RAM)이 물리적 RAM의 대안이 될 수 있는지 분석한 기사.

  • 생성형 AI 확산과 경제적 불안정으로 인해 RAM 및 PC 가격이 7개월간 기록적 수준으로 상승했다.
  • 가상 RAM(Virtual Memory)은 스토리지 드라이브 일부를 시스템 메모리 확장분으로 사용하는 자원 관리 기능이다.
  • 가상 RAM은 마치 더 많은 메모리가 있는 것처럼 '환상'을 제공하지만, 물리적 RAM의 속도와 응답성을 따라갈 수 없다.
  • 가상 RAM은 메모리가 부족한 PC를 위한 임시방편이며, 물리적 RAM의 완전한 대체재는 아니다.
  • RAM 가격은 최근 소폭 하락세를 보이고 있으나 여전히 매우 비싼 수준이다.
Notable Quotes & Details
  • RAM 및 PC 가격이 약 7개월간 기록적 수준으로 상승
  • Corsair: 가상 RAM은 속도와 응답성 대신 여분의 자원을 제공

일반 PC 사용자, 컴퓨터 하드웨어에 관심 있는 소비자

Notes: ZDNET의 어필리에이트 커미션 안내 등 홍보성 문구가 포함되어 있음

Anthropic's Designs Three-Agent Harness Supports Long-Running Full-Stack AI Development

Anthropic이 장시간 자율 풀스택 AI 개발을 지원하기 위해 계획·생성·평가 역할을 분리한 3-에이전트 하네스 설계를 도입했다.

  • 작업을 계획(Planner), 생성(Generator), 평가(Evaluator) 에이전트로 분리하여 장시간 AI 세션에서 일관성과 출력 품질을 향상시킨다.
  • 컨텍스트 손실 문제를 해결하기 위해 컨텍스트 리셋과 구조화된 핸드오프 아티팩트를 도입했다 (컨텍스트 압축(compaction)과는 다른 접근법).
  • 에이전트가 자신의 결과물을 과대평가하는 경향을 막기 위해 퓨샷 예시와 채점 기준으로 보정된 별도의 평가자 에이전트를 도입했다.
  • 프론트엔드 디자인 평가 기준으로 디자인 품질, 독창성, 완성도, 기능성 4가지를 설정했으며, 평가자는 Playwright MCP를 사용해 라이브 페이지를 직접 탐색한다.
  • 반복 횟수는 실행당 5~15회이며 최대 4시간이 소요될 수 있고, 각 사이클마다 점진적으로 정제된 결과물이 생성된다.
Notable Quotes & Details
  • Prithvi Rajasekaran (Anthropic Labs 엔지니어링 리드): "작업을 수행하는 에이전트와 판단하는 에이전트를 분리하는 것이 이 문제를 해결하는 강력한 레버임을 증명한다."
  • Artem Bredikhin: "장시간 AI 에이전트가 실패하는 단순한 이유는 매 새로운 컨텍스트 창이 기억상실이기 때문이다."
  • 반복당 최대 4시간 소요, 회당 5~15번 반복

AI 엔지니어, 에이전트 워크플로우 설계자, 풀스택 개발자

TigerFS Mounts PostgreSQL Databases as a Filesystem for Developers and AI Agents

TigerFS는 PostgreSQL 데이터베이스를 파일시스템으로 마운트하여 개발자와 AI 에이전트가 ls, cat, grep 같은 일반 Unix 도구로 데이터베이스를 다룰 수 있게 하는 오픈소스 실험적 프로젝트다.

  • TigerFS는 PostgreSQL 데이터베이스를 디렉터리로 마운트하고 파일을 DB에 직접 저장하며, API나 SDK 없이 Unix 표준 도구(ls, cat, find, grep)로 상호작용할 수 있다.
  • 파일 우선(file-first)과 데이터 우선(data-first) 두 가지 사용 모델을 지원한다.
  • 파일 우선 워크플로우에서는 원자적 쓰기와 자동 버전 관리를 제공하며, 디렉터리 간 파일 이동으로 작업 상태(todo/doing/done)를 표현할 수 있다.
  • 데이터 우선 워크플로우에서는 기존 PostgreSQL DB를 마운트하고 파일시스템 경로에 필터·정렬을 포함시켜 SQL 없이 DB 쿼리를 실행할 수 있다.
  • 각 파일은 PostgreSQL 행에 대응하며 ACID 보증과 동시 접근을 제공하고, Linux에서는 FUSE, macOS에서는 NFS로 마운트된다.
Notable Quotes & Details
  • Michael Freedman (TigerData 공동창업자 겸 CTO): "에이전트는 fancy한 API나 SDK가 필요 없다. 파일시스템을 좋아한다. ls, cat, find, grep. 파이프라인 Unix 도구들."
  • MIT 라이선스로 공개
  • Claude Code 및 Cursor와 파일시스템 모델로 상호작용 지원

데이터베이스 개발자, AI 에이전트 워크플로우 설계자, 시스템 엔지니어

Jooojub
System S/W engineer
Explore Tags
Series
    Recent Post
    © 2026. jooojub. All right reserved.