Daily Briefing

April 1, 2026
2026-03-31
65 articles

ProText: A Benchmark Dataset for Measuring (Mis)gendering in Long-Form Texts

LLM의 장문 텍스트 변환 과정에서 성별 오류(misgendering) 및 젠더 편향을 측정하기 위한 벤치마크 데이터셋 ProText를 소개하는 논문

  • Apple ML Research 팀이 ProText 데이터셋을 공개함 (이름, 직업, 호칭, 친족 관계어 등 테마 명사 포함)
  • 3가지 차원으로 구성: 테마 명사 유형, 테마 카테고리(남성/여성/중립), 대명사 카테고리(남성/여성/중립/없음)
  • 요약 및 텍스트 재작성 등 텍스트 변환 작업에서 LLM의 성별 편향을 측정하도록 설계
  • 전통적 대명사 해석 벤치마크를 넘어 젠더 이진법 이외의 경우도 포함
  • 단 2개의 프롬프트와 2개의 모델만으로도 젠더 편향, 고정관념, misgendering에 대한 세밀한 인사이트 도출 가능
Notable Quotes & Details
  • 2개의 프롬프트와 2개의 모델로 nuanced 인사이트 도출 가능
  • 명시적 젠더 단서가 없거나 모델이 이성애규범적 가정으로 기본 처리할 때 체계적 젠더 편향이 나타남

AI/NLP 연구자, LLM 공정성 및 편향 연구자

Claude Code's source code appears to have leaked: here's what we know

Anthropic의 Claude Code npm 패키지 v2.1.88에 59.8MB 소스맵 파일이 실수로 포함되어 약 51만 2천 줄 TypeScript 코드베이스가 유출되었다.

  • 59.8MB 자바스크립트 소스맵 파일이 @anthropic-ai/claude-code 패키지 v2.1.88에 포함되어 공개됨
  • Chaofan Shou(@Fried_rice)가 X(구 트위터)에서 발견 공개, 수천 명의 개발자들이 GitHub에 미러링하여 분석
  • 컨텍스트 엔트로피 해결을 위한 3계층 메모리 아키텍처(MEMORY.md 인덱스, 토픽 파일, grep 기반 검색) 구조 공개
  • 자율 데몬 모드 기능 플래그 'KAIROS'가 소스 내 150회 이상 언급됨
  • Claude Code의 연간 반복 수익(ARR)은 약 $2.5B으로 올해 초 이후 두 배 이상 성장
Notable Quotes & Details
  • 유출 파일 크기: 59.8MB, ~512,000줄 TypeScript 코드베이스
  • Claude Code ARR: $2.5 billion, 수익의 80%가 엔터프라이즈
  • Anthropic 2026년 3월 기준 연간 수익 run-rate $19 billion

AI 개발자, 기업 경영진, 보안 연구자

Imagine if your Teams or Slack messages automatically turned into secure context for your AI agents — PromptQL built it

Hasura 스핀오프 스타트업 PromptQL이 기업의 메시지 대화를 AI 에이전트를 위한 영구적인 보안 컨텍스트로 자동 변환하는 AI 네이티브 워크스페이스 플랫폼으로 피벗하였다.

  • 팀 대화를 자동으로 캡처·구조화하여 내부 위키로 축적하는 'Shared Wiki' 기술이 핵심
  • AI 에이전트의 할루시네이션과 반복적인 코드베이스 재설명 문제를 해결하는 것이 목표
  • 2026년 2월 HN에서 OpenAI의 Slack 유사 플랫폼 필요성 게시글이 327개 댓글로 화제
  • CEO Tanmai Gopal: '우리는 더 이상 업무에 대한 대화를 하지 않습니다. 실제로 업무를 수행하는 대화를 합니다'
  • GraphQL 유니콘 Hasura의 스핀오프로 AI 데이터 분석 도구에서 풀스케일 AI 워크스페이스로 피벗
Notable Quotes & Details
  • HN 게시물 327개 댓글 (2026년 2월)

기업 IT 담당자, 개발팀 리더, AI 에이전트 도입 기업

Nvidia-backed ThinkLabs AI raises $28 million to tackle a growing power grid crunch

물리 정보 AI로 전력망 전력 흐름 시뮬레이션을 수주~수개월에서 수분으로 단축하는 ThinkLabs AI가 Nvidia NVentures 등이 참여한 $28M Series A를 유치하였다.

  • Energy Impact Partners(EIP) 주도, NVentures(Nvidia VC)와 Edison International 참여
  • AI 모델로 전력망 전력 흐름 시뮬레이션 수행 — 기존 수주~수개월 걸리던 작업을 수분으로 단축
  • 데이터센터, EV 충전소 등 대규모 부하의 전력망 연결 영향 평가에 활용
  • Siemens, GE, Schneider Electric 등 레거시 소프트웨어를 물리 정보 AI 모델로 대체
  • 미국 전력 수요가 AI 데이터센터, 전동화 등으로 2030년까지 25% 성장 전망
Notable Quotes & Details
  • $28M Series A, 당초 목표보다 초과 모집
  • 미국 전력 수요 2030년까지 25% 증가 전망 (ICF International)

에너지 인프라 전문가, AI 투자자, 전력망 엔지니어

myStoria raises $1.625M to support patients navigating complex reproductive health

캐나다 온타리오 스타트업 myStoria가 PCOS, 자궁내막증, 난임 등 복잡한 생식 건강 문제를 AI와 전문 인력 조합으로 지원하는 플랫폼으로 $1.625M 시드 투자를 유치하였다.

  • Graphite Ventures 주도, Conexus Venture Capital, Adrenaline Fund, Phoenix Fire Fund 등 참여
  • AI와 훈련된 전문가를 결합한 human-in-the-loop 모델 운영
  • 사용자의 건강 문서·오디오·사진·증상·진료 이력을 AI 이해에 최적화된 형식으로 구조화하는 'Context Engine' 독자 기술 보유
  • 창업자 Jessica Chalk가 6년간 난임 경험 및 $100,000 이상 지출 후 직접 플랫폼 구축
  • iOS·Android freemium 모델로 출시, 장기적으로 암·심장병·자가면역 등 복잡 케어 전반으로 확장 목표
Notable Quotes & Details
  • $1.625M 시드 투자
  • 창업자 개인 불임 치료 비용 $100,000 이상

디지털 헬스 투자자, 여성 건강 관련 스타트업, 의료 기술 분야 관심자

French open-source orchestration platform Kestra raises $25M

프랑스 오픈소스 오케스트레이션 플랫폼 Kestra가 RTP Global 주도의 $25M Series A를 유치하며 데이터·AI·인프라·비즈니스 워크플로우 오케스트레이션 시장을 공략한다.

  • RTP Global 주도, Alven·ISAI·Axeleo 참여, 총 누적 투자금 $36M
  • 18개월 만에 엔터프라이즈 수익 25배 성장, 2025년 20억 워크플로우 실행(전년비 20배 증가)
  • Apple, JPMorgan Chase, Toyota, Deutsche Telekom, BHP 등 글로벌 엔터프라이즈 고객 보유
  • YAML 기반 선언적 접근으로 Python 전문성 없이도 비개발자까지 워크플로우 작성 가능
  • Kestra 2.0에서 자연어로 워크플로우 정의하는 네이티브 에이전트 오케스트레이션 기능 예정
Notable Quotes & Details
  • 18개월 만에 엔터프라이즈 수익 25배 성장
  • 2025년 20억 워크플로우 실행, 전년비 20배 증가
  • GitHub 26,000+ 스타, 전 세계 30,000+ 조직 사용

데이터 엔지니어, DevOps 팀, 기업 IT 아키텍트

Airbnb launches private car transfers in 125+ cities

Airbnb가 UK 공항 이송 업체 Welcome Pickups와 파트너십을 맺고 아시아·유럽·라틴아메리카 125개 이상 도시에서 앱 내 개인 차량 이송 서비스를 출시하였다.

  • 아시아·유럽·라틴아메리카 125개 이상 도시 대상 서비스 개시, 미국·캐나다·아프리카는 미포함
  • Airbnb 앱 내 Trips 탭에서 예약·조회·수정 가능, Welcome Pickups 앱 전환 불필요
  • 도착 시 이름표 든 기사 meet-and-greet, 출발 시 숙소에서 픽업 서비스 제공
  • 2026년 초 유럽·아시아 파일럿 서비스 평점 4.96/5.0 달성
  • CEO Brian Chesky의 '전체 여행 경험 소유' 전략의 일환, 향후 식료품 배달도 계획
Notable Quotes & Details
  • 파일럿 서비스 평점 4.96/5.0
  • 2026년 내 추가 도시 확장 예정

여행자, 관광 산업 종사자, Airbnb 파트너 사업자

Nomadic raises $8.4 million to wrangle the data pouring off autonomous vehicles

자율주행차·로봇 등에서 수집되는 방대한 영상 데이터를 비전 언어 모델로 자동 분류·검색 가능한 구조화 데이터셋으로 변환하는 Nomadic AI가 $8.4M 시드 투자를 유치하였다.

  • TQ Ventures 주도, Pear VC와 Jeff Dean 참여, 기업 가치 $50M(포스트머니)
  • 비전 언어 모델 컬렉션으로 영상 데이터를 구조화된 검색 가능 데이터셋으로 변환
  • 자율주행차 플리트 데이터의 95%가 아카이브에서 미활용 상태 — 엣지 케이스 발견이 핵심 가치
  • Zoox, Mitsubishi Electric, Natix Network, Zendar 등이 이미 플랫폼 사용 중
  • Nvidia GTC 피치 대회 1위 수상
Notable Quotes & Details
  • $8.4M 시드 투자, 기업 가치 $50M
  • Nvidia GTC 피치 대회 1위

자율주행 개발자, 물리적 AI 엔지니어, 로봇 산업 종사자

Exclusive: Runway launches $10M fund, Builders program to support early stage AI startups

AI 영상 생성 스타트업 Runway가 AI·미디어·월드 시뮬레이션 분야 초기 스타트업 투자를 위한 $10M 벤처 펀드를 출시하고 Builders 프로그램을 통해 무료 API 크레딧을 제공한다.

  • $10M 벤처 펀드 출시, 프리시드·시드 스타트업에 최대 $500,000 투자
  • AI 기술 프론티어 팀, 파운데이션 모델 기반 애플리케이션 레이어, 새로운 미디어 창작 세 가지 버킷으로 투자 논리 구분
  • Builders 프로그램으로 시드~시리즈C 스타트업에 무료 API 크레딧 제공
  • 기존 포트폴리오: LanceDB, Tamarind Bio, Cartesia 등
  • Runway는 Nvidia, Qatar Investment Authority 등으로부터 약 $860M 조달, 기업 가치 $5.3B
Notable Quotes & Details
  • Runway 총 조달 $860M, 기업 가치 $5.3B
  • 펀드 규모 $10M, 최대 투자금 $500,000

AI 스타트업 창업자, 벤처 투자자, AI 미디어 개발자

With its new app store, Ring bets on AI to go beyond home security

Amazon 산하 Ring이 AI를 활용하여 홈 보안을 넘어 노인 케어·인력 분석·임대 관리 등 다양한 용도로 카메라 기능을 확장하는 서드파티 앱 스토어를 출시하였다.

  • 1억 대 이상 카메라 기반으로 개발자 생태계 구축하는 앱 스토어 출시
  • 출시 파트너: Density(노인 케어), QueueFlow(혼잡 분석), Minut(Airbnb 호스트 관리)
  • 얼굴 인식·번호판 인식 등 프라이버시 침해 가능성 높은 앱은 이용 약관으로 제한
  • AI 카메라 영상 공유 서비스 Flock Safety와 파트너십을 소비자 반발로 취소한 배경도 언급
  • CES 2026년 1월 최초 발표 이후 정식 출시
Notable Quotes & Details
  • Ring 카메라 1억 대 이상 보급

소비자 가전 업계, IoT 개발자, 스마트홈 관련 기업

Like it or not, AI is part of art school curriculums

MassArt, CalArts 등 예술 대학들이 생성 AI를 커리큘럼에 통합하고 있는 가운데 일부 학생·교수들이 강하게 반발하는 현황을 조명한다.

  • MassArt, CalArts, 런던 Royal College of Art 등에서 생성 AI 비판적 참여 교육 실시
  • CalArts에서 AI 작가 모집 포스터 훼손 시위, 알래스카 대학교에서 학생이 AI 작품을 직접 먹어치우는 항의 행동 발생
  • Midjourney, Google Nano Banana, Suno, Udio, Veo 3, Bytedance Seedance 등 창작 AI 도구가 빠르게 성장
  • OpenAI Sora가 지난 주 서비스 종료된 사실도 언급
  • AI 제공사들은 도구가 창작자를 대체하는 것이 아니라 보조한다고 주장하지만 창작자들의 불안감은 지속
Notable Quotes & Details

예술 전공 학생, 교육자, 창작 AI 기술 개발자

You can order Grubhub and Uber Eats 'conversationally' with Alexa Plus

Amazon이 Alexa Plus에 Grubhub·Uber Eats와의 대화형 음식 주문 기능을 추가하여 레스토랑에서 주문하듯 자연스러운 대화로 식사를 주문할 수 있게 하였다.

  • Alexa Plus 구독자 대상, Echo Show 8 이상 기기에서 실시간으로 주문 내역이 표시되는 대화형 주문 창 제공
  • 주문 수정·메뉴 변경·음료 추가 등을 자연어 대화로 처리 가능, Alexa가 도움이 필요할 때만 개입
  • Grubhub·Uber Eats 계정 연동 후 저장된 레스토랑·이전 주문 자동 동기화
  • 추후 식료품 쇼핑, 여행 계획 등으로 대화형 주문 경험 확장 예정
  • 기존 명령-응답 모델에서 생성 AI 기반 자연어 이해 방식으로의 전환을 상징
Notable Quotes & Details

일반 소비자, 음식 배달 서비스 사용자, 스마트홈 기기 이용자

Alibaba Qwen Team Releases Qwen3.5 Omni: A Native Multimodal Model for Text, Audio, Video, and Realtime Interaction

알리바바 Qwen팀이 텍스트·오디오·이미지·비디오를 단일 파이프라인으로 처리하는 Thinker-Talker 아키텍처 기반의 옴니모달 모델 Qwen3.5-Omni를 출시하였다.

  • Thinker-Talker 아키텍처와 Hybrid-Attention Mixture of Experts(MoE)를 모든 모달리티에 적용
  • Plus/Flash/Light 세 가지 티어로 성능과 비용 균형 제공, Gemini 3.1 Pro의 직접 경쟁 모델로 포지셔닝
  • 오디오 트랜스포머(AuT)는 1억 시간 이상 오디오-비주얼 데이터로 사전 학습
  • 256k 장문 컨텍스트 지원 — 10시간 이상 연속 오디오, 400초 720p 영상 처리 가능
  • 215개 오디오·오디오-비주얼 이해 서브태스크에서 SOTA 달성, 일반 오디오 이해에서 Gemini 3.1 Pro 능가
Notable Quotes & Details
  • 215개 오디오 및 오디오-비주얼 벤치마크 서브태스크에서 SOTA 달성
  • AuT: 1억 시간 이상 데이터로 사전 학습
  • 256k 장문 컨텍스트 지원

AI 연구자, 멀티모달 모델 개발자, 기업 AI 도입 담당자

Zero Budget, Full Stack: Building with Only Free LLMs

2026년 기준 무료 LLM만 활용하여 React·FastAPI로 AI 회의 요약기를 제로 비용으로 구축하는 방법을 소개하는 실용 튜토리얼이다.

  • 2026년 기준 오픈소스 모델과 상용 모델의 성능 격차가 거의 사라짐
  • 음성-텍스트 변환은 Whisper, 요약은 GLM-4.7-Flash 및 LFM2-2.6B-Transcript(회의 전용) 등 무료 모델 활용
  • Ollama·LM Studio로 로컬에서 강력한 모델 실행 가능, 프라이버시·지연시간·비용 모두 개선
  • React + FastAPI 풀스택 AI 회의 요약기 완전한 코드 포함
  • Google Gemini API 무료 티어(일 수백 회 요청) 등 오픈 API 무료 티어 활용 전략 소개
Notable Quotes & Details
  • GLM-4.7-Flash, LFM2-2.6B-Transcript 등 무료 오픈소스 모델 활용

개발자, 부트캠프 졸업생, AI 앱 프로토타입 제작자

Bitboard version of Tetris AI

비트보드 최적화와 개선된 강화학습 알고리즘을 활용한 고성능 테트리스 AI 프레임워크 제안

  • 테트리스 게임 보드와 테트로미노를 비트보드 표현으로 재설계하여 충돌 감지, 라인 제거 등 핵심 연산을 비트 연산으로 가속화
  • OpenAI Gym-Tetris 대비 53배 속도 향상 달성
  • 애프터스테이트(afterstate) 평가 액터 네트워크를 도입해 상태 가치 추정을 단순화하고 더 적은 파라미터로 우수한 성능 달성
  • 버퍼 최적화 PPO 알고리즘(버퍼-optimized PPO)을 제안하여 3분 내에 10x10 그리드에서 평균 3,829점 달성
  • OpenAI Gym 표준 호환 Python-Java 인터페이스를 개발하여 현대 RL 프레임워크와의 통합을 지원
Notable Quotes & Details
  • OpenAI Gym-Tetris 대비 53배 속도 향상
  • 3분 내 10x10 그리드 평균 점수 3,829점

강화학습 연구자, AI 게임 개발자

Concerning Uncertainty -- A Systematic Survey of Uncertainty-Aware XAI

불확실성 인식 설명 가능 AI(UAXAI) 분야의 접근법, 평가 방식, 향후 과제를 체계적으로 정리한 서베이 논문

  • 불확실성 정량화의 세 가지 주요 접근법 식별: 베이지안(Bayesian), 몬테카를로(Monte Carlo), 컨포멀(Conformal) 방법
  • 불확실성을 설명에 통합하는 전략: 신뢰성 평가, 모델/설명 제약, 불확실성 명시적 전달
  • 현재 평가 관행은 파편화되어 있으며 모델 중심적이고 사용자 관점이 부족함
  • 최근 연구는 캘리브레이션(calibration)과 분포-무관(distribution-free) 기법 및 설명자 변동성을 주요 과제로 주목
  • 반사실적(counterfactual) 접근과 캘리브레이션 방법이 해석 가능성과 신뢰성 정렬의 유망한 방향으로 제시
Notable Quotes & Details

XAI 연구자, 머신러닝 신뢰성 연구자

Compliance-Aware Predictive Process Monitoring: A Neuro-Symbolic Approach

Logic Tensor Networks(LTN)를 활용해 도메인 프로세스 지식을 예측 모델에 주입하는 뉴로-심볼릭 프로세스 모니터링 방법 제안

  • 기존 서브-심볼릭 예측 프로세스 모니터링은 도메인 특정 제약(지식)을 반영하지 못하는 한계 존재
  • Logic Tensor Networks(LTN)를 활용하여 프로세스 지식을 예측 모델에 주입
  • 파이프라인 4단계: 특성 추출 → 규칙 추출 → 지식 베이스 생성 → 지식 주입
  • 뉴로-심볼릭 모델이 프로세스 제약 학습 외에도 컴플라이언스 준수율과 정확도 모두 베이스라인 대비 향상
  • 의료 수술 일정 예시: '환자가 퇴원 후 1주일 이후에만 수술 계획 가능'과 같은 규칙을 모델에 반영
Notable Quotes & Details

AI 연구자, 비즈니스 프로세스 관리 전문가

Transparency as Architecture: Structural Compliance Gaps in EU AI Act Article 50 II

EU AI Act 제50조 II의 AI 생성 콘텐츠 이중 투명성 요건이 현재 생성 AI 시스템의 구조적 한계로 인해 준수하기 어렵다는 분석

  • EU AI Act 제50조 II는 AI 생성 콘텐츠에 인간 가독형 및 기계 판독형 이중 레이블링을 2026년 8월부터 의무화
  • 팩트체킹 파이프라인에서 반복적 편집 워크플로우와 비결정적 LLM 출력으로 출처 추적이 불가능
  • 합성 데이터 생성에서 워터마크는 학습 중 스퓨리어스 특성으로 학습될 위험이 있어 지속적 이중 마킹이 역설적
  • 세 가지 구조적 공백: (a) 크로스플랫폼 마킹 형식 부재, (b) 규정의 '신뢰성' 기준과 확률적 모델 행동 간 불일치, (c) 다양한 사용자 전문성에 맞는 공시 지침 부재
  • 투명성을 아키텍처 설계 요건으로 다루는 학제간 연구 필요성 강조
Notable Quotes & Details
  • EU AI Act 제50조 II 시행: 2026년 8월

AI 정책 연구자, 법률 전문가, AI 시스템 설계자

FormalProofBench: Can Models Write Graduate Level Math Proofs That Are Formally Verified?

AI 모델이 대학원 수준의 수학 증명을 Lean 4로 형식적으로 검증 가능하게 작성할 수 있는지 평가하는 비공개 벤치마크 FormalProofBench 소개

  • 각 문제는 자연어 문제와 Lean 4 형식 명제를 쌍으로 구성하며, 모델은 Lean 4 검사기가 통과하는 증명을 출력해야 함
  • 대학원 수준 수학(해석학, 대수학, 확률론, 논리학) 문제를 자격시험 및 표준 교재에서 수집
  • 에이전틱 하네스로 프론티어 모델 평가 결과, 최고 성능 모델의 정확도는 33.5%에 그침
  • 도구 사용, 실패 모드, 비용 및 지연 시간에 대한 실증적 분석 제공
  • 형식 정리 증명 능력에 대한 포괄적 평가 프레임워크 제시
Notable Quotes & Details
  • 최고 성능 프론티어 모델의 정확도: 33.5%

AI 연구자, 수학 증명 자동화 연구자

Mitigating Forgetting in Continual Learning with Selective Gradient Projection

연속 학습에서 치명적 망각을 완화하기 위한 선택적 경사 투영 기반 동적 최적화 방법 SFAO 제안

  • SFAO(Selective Forgetting-Aware Optimization)는 코사인 유사도와 레이어별 게이팅을 통해 경사 방향을 동적으로 조절
  • 가소성(plasticity)과 안정성(stability) 균형을 유지하면서 제어된 망각을 가능하게 함
  • 효율적인 몬테카를로 근사를 사용하는 튜닝 가능한 메커니즘으로 업데이트를 선택적으로 투영·수락·폐기
  • 표준 연속 학습 벤치마크에서 메모리 비용 90% 감소 달성
  • MNIST 데이터셋에서 경쟁력 있는 정확도와 향상된 망각 완화 성능 입증
Notable Quotes & Details
  • 메모리 비용 90% 감소

머신러닝 연구자, 연속 학습 전문가

Boundary-aware Prototype-driven Adversarial Alignment for Cross-Corpus EEG Emotion Recognition

이종 EEG 데이터셋 간 감정 인식의 도메인 적응 문제를 해결하는 경계 인식 프로토타입 기반 적대적 정렬(PAA) 프레임워크 제안

  • 생리적 변동성, 실험 패러다임 차이, 장치 불일치로 인한 크로스-코퍼스 EEG 감정 인식의 성능 저하 문제 해결
  • PAA 프레임워크를 세 단계로 구성: PAA-L(로컬 클래스 조건 정렬), PAA-C(대조적 의미 정규화), PAA-M(경계 인식 완전 구성)
  • SEED, SEED-IV, SEED-V 데이터셋의 4가지 크로스-코퍼스 평가 프로토콜에서 최첨단 성능 달성
  • 평균 성능 향상: 6.72%, 5.59%, 6.69%, 4.83%
  • 임상 우울증 식별 시나리오에서도 효과적으로 일반화
Notable Quotes & Details
  • 4가지 평가 프로토콜에서 평균 향상: 6.72%, 5.59%, 6.69%, 4.83%
  • 소스 코드: https://github.com/WuCB-BCI/PAA

뇌-컴퓨터 인터페이스 연구자, 감정 인식 AI 연구자

Learning to Select Visual In-Context Demonstrations

멀티모달 대형 언어 모델(MLLM)의 인컨텍스트 학습을 위한 시각 데모 선택 문제를 강화학습 에이전트로 해결하는 LSD 프레임워크 제안

  • 기존 k-최근접이웃(kNN) 기반 데모 선택은 복잡한 사실적 회귀 작업에서 중복 예시를 선택하는 한계 존재
  • 데모 선택을 순차적 의사결정 문제로 재구성하고 Dueling DQN + 쿼리 중심 Transformer Decoder 구조의 RL 에이전트 도입
  • 5개 시각 회귀 벤치마크에서 평가한 결과, 객관적·사실적 회귀 작업에서 LSD가 kNN 대비 유의미하게 우수
  • 주관적 선호도 작업에서는 kNN이 여전히 최적
  • 시각적 관련성과 다양성의 균형을 통해 회귀 경계를 더 잘 정의
Notable Quotes & Details

멀티모달 AI 연구자, LLM 인컨텍스트 학습 연구자

TED: Training-Free Experience Distillation for Multimodal Reasoning

파라미터 업데이트 없이 교사 모델의 지식을 학생 모델의 프롬프트 내 경험으로 전달하는 훈련-불필요 지식 증류 프레임워크 TED 제안

  • 기존 지식 증류는 반복적 파라미터 업데이트와 대규모 훈련 데이터가 필요하여 리소스 제한 환경에서 적용 어려움
  • TED는 업데이트 대상을 모델 파라미터 대신 학생의 프롬프트에 주입되는 인컨텍스트 경험으로 전환
  • 교사가 학생의 추론 궤적과 정답을 비교하여 효과적인 추론 패턴을 담은 일반화된 경험 추출
  • 경험 압축 메커니즘으로 무한 성장과 노이즈 누적 문제 해결 (사용 통계 기반 병합·재작성·제거)
  • MathVision에서 Qwen3-VL-8B 성능을 0.627 → 0.702로, VisualPuzzles에서 0.517 → 0.561로 향상, 훈련 비용 5배 이상 절감
Notable Quotes & Details
  • MathVision: 0.627 → 0.702 (Qwen3-VL-8B)
  • VisualPuzzles: 0.517 → 0.561
  • 100개 훈련 샘플만으로 파라미터 기반 증류와 경쟁적 성능, 훈련 비용 5배 이상 절감

멀티모달 AI 연구자, 효율적 모델 훈련 연구자

A Step Toward Federated Pretraining of Multimodal Large Language Models

프라이버시 보호 분산 환경에서 멀티모달 대형 언어 모델(MLLM)의 사전학습을 가능하게 하는 연합학습 프레임워크 Fed-CMP 제안

  • MLLM 발전이 고품질 공개 데이터 포화로 병목에 걸렸으며, 방대한 프라이버시 민감 사일로 데이터는 활용 불가
  • Federated MLLM Alignment(Fed-MA) 태스크 정의: 비전 인코더와 LLM을 동결하고 크로스-모달 프로젝터만 협력 훈련
  • 두 가지 핵심 과제: (i) 로컬 프로젝터 집계 시 파라미터 간섭, (ii) 원패스 협력 SGD의 경사 진동
  • Canonical Reliability-Aware Aggregation으로 파라미터 간섭 억제, Orthogonality-Preserved Momentum으로 경사 진동 해결
  • 공개 데이터셋 기반 4가지 연합 사전학습 시나리오에서 기존 베이스라인 대비 유의미한 성능 향상
Notable Quotes & Details

연합학습 연구자, MLLM 개발자, 프라이버시 보존 AI 연구자

AlpsBench: An LLM Personalization Benchmark for Real-Dialogue Memorization and Preference Alignment

실제 인간-LLM 대화에서 파생된 LLM 개인화 벤치마크 AlpsBench를 소개하고, 프론티어 모델들의 개인화 능력을 평가

  • WildChat에서 수집한 2,500개 장기 상호작용 시퀀스와 인간 검증 구조화 메모리로 구성
  • 4가지 핵심 태스크 정의: 개인화 정보 추출, 갱신, 검색, 활용
  • 평가 결과: 모델들은 잠재적 사용자 특성 추출에 어려움, 메모리 갱신은 최강 모델도 성능 상한에 도달
  • 대규모 방해 요소 풀이 있을 때 검색 정확도가 급격히 하락
  • 명시적 메모리 메커니즘이 회상은 향상시키지만 선호도 정렬이나 감성적 공명을 자동으로 보장하지는 않음
Notable Quotes & Details
  • 2,500개 장기 상호작용 시퀀스
  • WildChat 데이터 기반

LLM 개인화 연구자, 대화형 AI 개발자

The Cognitive Divergence: AI Context Windows, Human Attention Decline, and the Delegation Feedback Loop

LLM 컨텍스트 창의 기하급수적 성장과 인간 주의 집중력의 지속적 감소 사이의 인지 격차(Cognitive Divergence)를 분석하고 위임 피드백 루프 가설 제시

  • AI 컨텍스트 창: 2017년 512토큰 → 2026년 2,000,000토큰 (약 3,906배, 14개월마다 2배 성장)
  • 인간 유효 컨텍스트 스팬(ECS): 2004년 기준 약 16,000토큰 → 2026년 추정 약 1,800토큰으로 감소
  • ChatGPT 출시 시점(2022년 11월)에 비해 2026년 AI 대 인간 비율이 원시 기준 556~1,111배, 품질 조정 기준 56~111배로 성장
  • 위임 피드백 루프 가설: AI 능력 성장 → 더 낮은 임계값의 작업도 AI에 위임 → 인지 능력 저하 가속화
  • 8개 신경영상 연구 검토, ECS 심리측정 도구 및 종단 연구 필요성 제안
Notable Quotes & Details
  • AI 컨텍스트 창 성장률: 14개월마다 2배, 2017~2026년 약 3,906배 성장
  • 인간 ECS: 16,000토큰(2004) → 1,800토큰(2026년 추정)
  • 2026년 AI:인간 품질조정 비율: 56~111배

AI 사회영향 연구자, 인지과학자, AI 정책 입안자

Notes: 일부 수치(인간 ECS 2026년 값)는 2020년까지의 종단 데이터 외삽값으로 불확실성이 있음을 논문 자체에서 인정

Do Multilingual VLMs Reason Equally? A Cross-Lingual Visual Reasoning Audit for Indian Languages

인도 6개 언어에 대한 시각-언어 모델의 크로스-언어 시각 추론 성능을 최초로 체계적으로 감사한 연구

  • MathVista, ScienceQA, MMMU의 980개 질문을 IndicTrans2로 힌디어, 타밀어, 텔루구어, 벵골어, 칸나다어, 마라티어로 번역
  • 7B 오픈소스 모델부터 GPT-4o까지 8개 VLM을 7개 언어에서 평가, 총 68,600개 추론 기록 생성
  • 영어 대비 인도 언어로 전환 시 정확도 9.8~25 퍼센트포인트 하락
  • 드라비다어 계열이 인도-아리안 계열보다 최대 13.2pp 추가 하락
  • 연쇄-사고(CoT) 프롬프팅이 벵골어(-14.4pp)와 칸나다어(-11.4pp)에서 오히려 성능 저하 — 영어 중심 추론 체인 노출
Notable Quotes & Details
  • 영어 대비 인도 언어 정확도 하락: 9.8~25pp
  • 드라비다어 추가 하락: 최대 13.2pp
  • Aya-Vision-8B(23개 언어 지원 모델)도 드라비다어 스크립트에서 28.5pp 하락
  • 총 평가 기록: 68,600개

다국어 AI 연구자, VLM 개발자, 언어 공정성 연구자

Resolving the Robustness-Precision Trade-off in Financial RAG through Hybrid Document-Routed Retrieval

금융 문서 RAG 시스템에서 강건성-정밀도 트레이드오프를 해결하는 하이브리드 문서 라우팅 검색(HDRR) 아키텍처 제안

  • 청크 기반 RAG는 규제 신고서 같은 구조적으로 동질적인 코퍼스에서 크로스-문서 청크 혼동 문제 발생
  • 의미 파일 라우팅(SFR)은 치명적 실패를 줄이지만 정밀한 청크 검색의 정확도를 희생
  • HDRR는 SFR을 문서 필터로 사용한 후 식별된 문서로 범위를 좁혀 청크 기반 검색을 수행하는 2단계 아키텍처
  • FinDER 벤치마크(1,500개 쿼리) 평가에서 HDRR이 모든 지표에서 최고 성능: 평균 점수 7.54(CBR 대비 25.2% 향상, SFR 대비 16.9% 향상)
  • 실패율 6.4%, 정확도 67.7%(CBR 대비 +18.7pp), 완벽 답변율 20.1%(CBR 대비 +6.3pp, SFR 대비 +11.6pp)
Notable Quotes & Details
  • HDRR 평균 점수: 7.54 (CBR 6.02 대비 25.2% 향상)
  • 완벽 답변율: 20.1% (CBR 13.8%, SFR 8.5% 대비)
  • 실패율: 6.4% (CBR 22.5%, SFR 10.3% 대비)

금융 AI 연구자, RAG 시스템 개발자, 엔터프라이즈 AI 엔지니어

Arithmetic OOD Failure Unfolds in Stages in Minimal GPTs

2자리 덧셈으로 훈련된 소형 GPT가 3자리 일반화에 실패하는 이유를 단계별로 분석한 산술 OOD 실패 연구

  • 2자리 덧셈에 완전 훈련된 모델이 3자리 일반화에 실패하는 원인을 레이아웃 장벽, 올림수 의미, 재조합, 잔차 오류 4단계로 분해
  • 레이아웃 장벽: 절대 위치 모델은 순수 3자리 레이아웃 전환에 취약하며, 혼합 레이아웃 노출만이 이 장벽을 약화
  • 레이아웃 수정 후, 수백 자리가 의미적 수백 자리가 아닌 올림수 플래그로 작동 — 타겟된 올림수 프로브로 관련 로짓 마진을 역전
  • 재조합 단계: 고조건 꼬리 데이터가 다양한 조건에서 베이스라인을 능가
  • 최종 잔차 오류는 대부분 십의 자리에 집중되며, 부호 인식 십의 자리 수정으로 최난이도 수천 올림수 스위트에서 정확도 0.664 → 0.822 향상
Notable Quotes & Details
  • 부호 인식 십의 자리 수정 후 최난이도 스위트 정확도: 0.664 → 0.822

LLM 해석 가능성 연구자, 수학적 추론 AI 연구자

TRL v1.0: Post-Training Library Built to Move with the Field

Hugging Face의 포스트트레이닝 라이브러리 TRL v1.0 출시 — 75개 이상의 포스트트레이닝 방법을 지원하며 프로덕션 시스템을 위한 안정성 중심 설계로 전환

  • TRL은 연구 코드베이스에서 프로덕션 시스템을 지원하는 신뢰할 수 있는 라이브러리로 발전, v1.0은 이 책임을 공식화
  • 75개 이상의 포스트트레이닝 방법 구현 (PPO, DPO, GRPO 등 주요 패러다임 포함)
  • 포스트트레이닝의 핵심이 PPO(정책+보상 모델+RL 루프) → DPO(보상 모델 불필요) → RLVR/GRPO(검증기 기반 보상) 순으로 변화해옴
  • 라이브러리 설계 철학: '완벽한 추상화 설계'가 아니라 '변화를 수용하는 안정적 소프트웨어 구축'에 초점
  • 첫 커밋 이후 6년 이상의 반복을 통해 현재 설계가 형성
Notable Quotes & Details
  • 75개 이상의 포스트트레이닝 방법 지원
  • 첫 커밋: 6년 이상 전

ML 엔지니어, LLM 파인튜닝 개발자, AI 연구자

Notes: 본문이 일부 잘림(마지막 문장 미완성) — 전체 내용은 원문 참조 필요

Claude Code 소스 코드가 npm 레지스트리 맵 파일을 통해 유출

Anthropic의 Claude Code CLI 소스 코드가 npm 레지스트리의 .map 파일을 통해 복원 가능한 형태로 유출된 사건

  • Claude Code CLI의 소스 코드가 npm 레지스트리에 포함된 소스맵(.map) 파일을 통해 복원 가능한 형태로 노출됨
  • 소스맵 파일이 배포 패키지에 의도치 않게 포함되어 난독화된 코드의 원본을 복원할 수 있었음
  • 보안 관점에서 의도치 않은 정보 유출 사례로 보고됨
Notable Quotes & Details

보안 연구자, 개발자

Notes: 본문이 매우 짧아 상세 내용 불완전

Show GN: 한국 주식시장 뉴스 분석 및 투자 리서치를 위해 특화된 7B 파라미터 에이전트 LLM

한국 증시(KOSPI+KOSDAQ) 특화 7B 파라미터 언어 모델 VELA를 공개한 프로젝트 소개

  • Qwen2.5-7B-Instruct를 베이스로 SFT + DPO 파이프라인으로 파인튜닝한 VELA 모델 공개
  • SFT: 36,713 샘플 / 2,135 종목으로 학습 (뉴스 분류, 급등락 시그널, 증권사 리포트, 툴콜링 등)
  • DPO: 24,779 페어로 중국어·영어 language leak 문제와 환각 현상 집중 교정
  • Reasoning Trace(JSON 단계별 사고) + Synthesis Report(7섹션 리서치 리포트) 형식 지원
  • llama-cpp-python / Ollama / vLLM / Transformers / MLX 인터페이스 지원
Notable Quotes & Details
  • SFT 학습 샘플: 36,713개
  • DPO 학습 페어: 24,779개
  • 대상 종목 수: 2,135개

AI 개발자, 금융 분야 관계자, 언어 모델 연구자

Notes: 투자 조언이 아닌 정보 제공 목적임을 명시; 실제 사용 시 신뢰할 수 있는 뉴스 출처 데이터 제공 필요

레트로 데모씬 그래픽의 기묘한 사례

1980~90년대 데모씬 그래픽 문화의 표절 관행 역사와 AI 이미지 시대에 재부상하는 창작 정체성 논쟁

  • 초기 데모씬은 Boris Vallejo, Frank Frazetta 등 유명 화가 작품을 손으로 베껴 그리는 것을 공예적 숙련도로 인정했음
  • 1995년경 스캐너·Photoshop 보급 이후 단순 디지털 복제는 '노력 없는 부정행위'로 간주되기 시작
  • 오늘날 AI 생성 이미지 사용이 새로운 표절 논쟁으로 부상하며 창작 과정 투명성 갈등 이어짐
  • 대부분의 데모 파티는 AI 사용 금지 규정을 명시하지만 집행이 어려워 위반 사례 발생
  • 데모씬은 비효율과 수작업의 즐거움을 추구하는 공간으로 AI 의존을 창의성과 영혼의 상실로 인식
Notable Quotes & Details
  • T. S. Eliot 인용: "좋은 예술가는 훔치되, 그것을 새롭게 만든다"
  • 현재 데모씬 참여자는 주로 40~50대 중년층

일반 독자, 디지털 아트·창작 문화에 관심 있는 독자

Show GN: 작업할 때 중요한건 플레이리스트 입니다.

AI와의 협업 작업 중 노동요의 중요성을 느끼고 YouTube 기반 플레이리스트 공유 커뮤니티 서비스를 직접 개발한 사례

  • AI와 홀로 작업하는 환경에서 음악 플레이리스트의 중요성이 커져 커뮤니티 서비스를 직접 개발
  • Open/Closed 플레이리스트 생성, 한 번에 플레이리스트 URL로 40곡 일괄 추가 기능 지원
  • YouTube/YouTube Music으로 바로 재생 가능, 유료 플랜 없이도 PC에서 사용 가능
  • 팔로잉 기능으로 다른 사용자의 플레이리스트 생성·업데이트 알림 수신 가능
  • Spotify API 정책 변경(25만 사용자 이상 필요)으로 스포티파이 연동은 포기, LLM 활용으로 빠른 기능 구현 가능했음
Notable Quotes & Details
  • 플레이리스트 URL 일괄 추가 제한: 40곡
  • Spotify API: 5명 제한, 서비스 사용자 25만 명 이상 필요

일반 독자, 개발자

Notes: 개인 프로젝트 소개 및 피드백 요청 글; 현재 테스트 버전

Ollama, 이제 애플 실리콘에서 MLX 기반으로 구동

Ollama가 Apple MLX 프레임워크 기반 프리뷰 버전을 공개하여 Apple Silicon에서 LLM 성능을 크게 향상

  • Apple MLX 프레임워크 기반 Ollama 0.19 프리뷰 버전 공개
  • M5 시리즈 GPU Neural Accelerator를 통해 TTFT(첫 토큰 생성 시간)와 토큰 생성 속도 모두 개선
  • NVFP4 양자화 형식 지원으로 모델 정확도를 유지하면서 메모리 대역폭 및 저장소 요구량 절감
  • 캐시 재사용 및 스마트 캐시 정책으로 대화 간 메모리 효율과 응답 속도 향상
  • Claude Code, OpenCode 등 코딩 에이전트 실행 속도 향상 기대; 32GB 이상 통합 메모리 필요
Notable Quotes & Details
  • Ollama 0.19 int4 성능: 1851 token/s 프리필, 134 token/s 디코드
  • 테스트 날짜: 2026-03-29
  • 필요 메모리: 32GB 이상 통합 메모리

개발자, Apple Silicon Mac 사용자

[P] I built a personal research newspaper to funnel arXiv

arXiv의 방대한 논문 중 개인 관심사에 맞는 논문만 골라 주간 저널리스틱 뉴스레터로 발송해주는 서비스 rnn.news를 개발한 PhD 학생의 프로젝트 소개

  • mech interp x histopathology 연구 중인 PhD 학생이 arXiv 논문 홍수 문제를 해결하기 위해 개발
  • 이메일로 관심사를 전송하면 주간 에디션을 저널리스틱 스타일로 발송
  • Feynman, Hunter S. Thompson 등 다양한 문학 스타일로 뉴스레터 작성 가능
  • gpt-5.4-mini 사용, 에디션당 약 4센트 비용으로 현재 무료 제공
  • 크레딧 소진 시까지 운영 예정이며 이후 오픈소스 모델로 전환 고려 중
Notable Quotes & Details
  • 에디션당 비용: 약 4센트
  • 사용 모델: gpt-5.4-mini

AI 연구자, 학술 연구자

[D] Howcome Muon is only being used for Transformers?

LLM 훈련에서 빠르게 채택된 Muon 옵티마이저가 트랜스포머 이외의 아키텍처(ConvNet 등)에서는 왜 활용되지 않는지에 대한 커뮤니티 토론

  • Muon 옵티마이저가 LLM 훈련에서 빠르게 채택되었으나 ConvNet 등 다른 아키텍처에서는 활용 사례가 거의 없음
  • Muon 발표 시 Cifar-10에서 새로운 훈련 속도 기록을 세웠음에도 트랜스포머 외 적용이 부재
  • 일반적으로 빠른 훈련이 더 좋은 최종 모델로 이어지는데 왜 다른 아키텍처에 적용되지 않는지 의문 제기
Notable Quotes & Details

AI 연구자, 머신러닝 엔지니어

Notes: 커뮤니티 토론 질문 글, 답변 내용 없음

[D] Diffusion research interview experience?

확산 모델(Diffusion) 연구에 특화된 Research Scientist/Engineer 직무 면접에서 나오는 기술적 질문 유형을 공유해달라는 커뮤니티 요청

  • RS/RE 역할의 확산 모델 면접에서 어떤 기술적 질문이 나오는지 묻는 토론
  • 시스템 디자인, LeetCode, 논문 비평, 새로운 연구 방향 제안 등이 질문될 수 있는지 궁금증 제기
  • 일반 ML/DL 이론과 LLM 이론 관련 자료는 많지만 확산 모델 특화 면접 준비 자료가 거의 없음을 지적
Notable Quotes & Details

AI 연구자, 취업 준비생

Notes: 커뮤니티 질문 글, 답변 내용 없음

[P] I trained a language model from scratch for a low resource language and got it running fully on-device on Android (no GPU, demo)

저자원 언어인 루간다어(Luganda)를 위한 소형 언어 모델 BULaMU를 처음부터 훈련하고 GPU 없이 Android 오프라인으로 실행하는 앱을 개발한 프로젝트

  • BULaMU 모델 패밀리(20M, 47M, 110M 파라미터) 전부를 루간다어를 위해 처음부터 훈련
  • GPU나 인터넷 없이 Android 기기에서 완전 오프라인 실행 가능
  • E.A.S.T. (Expanding Access to Systems of Learning and Intelligence) Android 앱으로 서비스
  • 저자원 언어 사용자와 저전력·저비용 기기에 AI를 접근 가능하게 만들기 위한 목적
  • GitHub, HuggingFace, Zenodo에 모델·데이터셋·백서 공개
Notable Quotes & Details
  • 모델 크기: 20M, 47M, 110M 파라미터

AI 연구자, 자연어처리 연구자, 저자원 언어 AI 관심자

Fake users generated by AI can't simulate humans — review of 182 research papers. Your thoughts?

182개 연구 논문을 분석한 체계적 문헌 검토에 따르면 AI가 생성한 합성 참여자는 실제 인간의 인지와 행동을 제대로 시뮬레이션하지 못함

  • 기업과 연구자들이 실제 사용자 피드백을 LLM 합성 참여자로 대체하는 추세가 빠르게 확산 중
  • 182개 연구 논문을 분석한 체계적 문헌 검토 결과, 합성 참여자가 인간 인지와 행동을 제대로 표현하지 못함
  • AI 생성 합성 참여자를 실제 사용자 연구에 활용하는 것에 반대하는 결론 도출
  • 실제 인간 대상 설문, 앱 테스트, 의견 수집을 LLM으로 대체하는 것은 문제가 있음을 시사
Notable Quotes & Details
  • 분석 대상 논문 수: 182개
  • 출처: ResearchSquare (https://www.researchsquare.com/article/rs-9057643/v1)

AI 연구자, UX 연구자, 기업 의사결정자

Notes: ResearchSquare 사전 출판 논문 기반; 동료 심사 전 결과임

The AI Chip War is Just Getting Started

AI 칩 시장이 2035년까지 약 27배 성장할 것으로 예측되며 범용 칩에서 특화 AI 칩으로의 전환이 가속화되고 있음

  • AI 칩 시장이 2035년까지 약 27배 성장 예상 (Roots Analysis 연구 인용)
  • AI 인프라, 엣지 컴퓨팅, 자율주행 시스템이 주요 성장 동인
  • 범용 칩에서 특화 AI 칩으로의 전환 및 System-on-Chip(SoC) 설계가 주류로 부상
  • 엣지 AI가 다음 주요 성장 동력으로 주목받으며 실시간 추론·저전력 소비 가능
  • 모든 주요 AI 기업이 자체 칩을 개발할지, 소수 플레이어가 시장을 장악할지 논의
Notable Quotes & Details
  • AI 칩 시장 2035년까지 ~27배 성장 예상 (Roots Analysis)

투자자, 기업 의사결정자, 기술 분야 관계자

Notes: Reddit 커뮤니티 토론 글, 일부 내용은 추측성

My AI spent last night modifying its own codebase

Ollama 기반의 로컬 오프라인 AI 시스템 Apis가 자체적으로 코드베이스를 수정하고 메모리 구조를 재구성한 경험 공유

  • Ollama 기반 로컬 AI 시스템 Apis가 Turing Grid 메모리 구조를 스스로 확장하고 새 좌표에 서브시스템 지식 그래프를 채움
  • 훈련 파이프라인의 레이스 컨디션을 발견하고 세마포어 잠금을 추가해 LoRA 어댑터 통합 문제를 자체 수정
  • 코드 수정 후 새벽 4시 재컴파일에서 인간 개입 없이 계속 실행 성공
  • Rust로 작성된 오픈소스 스택으로 로컬 하드웨어에서 실행, 월 구독 없이 세션 간 기억 유지
  • 월 구독료나 개발사 패치 없이 스스로 개선할 수 있는 AI 도구를 만들고자 개발
Notable Quotes & Details

개발자, AI 실험자

Notes: 개인 프로젝트 경험 공유 글; 자체 보고 내용으로 검증되지 않음

If frontier AI labs have unlimited shovels, what's stopping them from building everything?

파운데이션 모델 기업이 무한한 AI 토큰을 활용해 모든 산업에 직접 진출할 수 있다면 스타트업이 경쟁할 수 있는가에 대한 논의

  • AI 토큰을 '삽'에 비유: 파운데이션 모델 기업이 삽 공장을 소유하고 자체적으로 무제한 삽 활용 가능
  • 파운데이션 모델 기업이 의료, 법률, 교육, 금융 등 모든 산업에서 스타트업 아이디어를 직접 흡수할 수 있음
  • 스타트업 생존 전략으로 극도로 특화된 틈새 시장이나 대형 기업이 진입하기 어려운 고위험 영역 제안
  • 독점 데이터와 특허가 보호 수단이 될 수 있지만 장기적 해자로서의 한계 있음
  • 소규모 팀으로 대규모 사업 운영이 가능해진 AI 시대에 플랫폼 리스크가 증가
Notable Quotes & Details

스타트업 창업자, 투자자, 기업 의사결정자

Notes: 커뮤니티 토론 글, 주관적 의견 중심

What I learned about multi-agent coordination running 9 specialized Claude agents

9개의 전문화된 Claude 에이전트로 구성된 완전한 AI 조직을 운영하며 얻은 멀티에이전트 조율의 교훈과 한계

  • CEO(Atlas), COO(Kael), 연구원(Soren), 분석가(Quinn), 브랜드(Nova) 등 9개 역할을 Claude Opus/Sonnet 에이전트로 구성
  • 중앙 오케스트레이터 없이 Identity 파일 기반으로 비동기적으로 협업하는 분산 조직 구조 채택
  • 500~1,500단어 분량의 Identity 파일이 역할별 에이전트 출력 품질의 핵심 요소
  • 5개 주요 워크스트림이 Day 1부터 병렬로 진행되어 시간 효율 극대화
  • 세션 간 영구 메모리 부재, 자동 품질 측정의 어려움, 에이전트 간 진짜 토론 불가능이 주요 한계
Notable Quotes & Details
  • 1주일 미만에 185개 이상 파일 생성
  • Claude Opus: CEO·CSO 역할 / Claude Sonnet: 나머지 7개 역할

개발자, AI 연구자, AI 에이전트 시스템 설계자

PSA: Please stop using nohurry/Opus-4.6-Reasoning-3000x-filtered

HuggingFace에 올라온 필터링 데이터셋(nohurry/Opus-4.6-Reasoning-3000x-filtered) 대신 원본 데이터셋 사용을 권고하는 공지

  • nohurry가 Crownelius의 데이터셋에서 거부 응답을 제거한 필터링 버전을 업로드했으나 원본이 이미 업데이트되어 더 이상 불필요
  • 원본 데이터셋(crownelius/Opus-4.6-Reasoning-3000x)을 사용할 것을 권고
  • 기존 링크 호환성 유지를 위해 필터링 버전은 삭제하지 않고 README만 수정
  • 원본 데이터셋 제작 비용이 높았으므로 원작자 Crownelius에게 기부 권장
Notable Quotes & Details

AI 개발자, 파인튜닝 연구자

Notes: 데이터셋 공지 글

How to connect Claude Code CLI to a local llama.cpp server

Claude Code CLI를 로컬 llama.cpp 서버와 연동하는 환경변수 설정 방법을 단계별로 안내한 가이드

  • .bashrc에 ANTHROPIC_AUTH_TOKEN, ANTHROPIC_API_KEY, ANTHROPIC_BASE_URL 환경변수를 설정하여 로컬 서버 연동
  • VS Code Claude Code 익스텐션에서도 settings.json의 claudeCode.environmentVariables로 동일하게 설정 가능
  • llama.cpp 또는 llama-swap으로 모델을 동적으로 전환하여 사용 가능
  • 컨텍스트 길이 문제 해결을 위해 CLAUDE_CODE_DISABLE_1M_CONTEXT, CLAUDE_CODE_MAX_OUTPUT_TOKENS 환경변수 설정 권장
  • 비문서화 환경변수 CLAUDE_CODE_ATTRIBUTION_HEADER도 0으로 설정 권장
Notable Quotes & Details

개발자

Small Local LLMs with Internet Access: My Findings on Low-VRAM Hardware

저VRAM 환경(RX 5700XT, 8GB VRAM)에서 소형 LLM에 인터넷 접근을 부여해 성능을 향상시킨 실험 결과 공유

  • MCP 또는 RAG를 통해 인터넷 접근을 부여하면 3~9B 파라미터 소형 모델도 실시간 정보를 활용한 복잡한 작업 수행 가능
  • Qwen 3.5 4B 모델이 180k 토큰 컨텍스트로 오프라인 대형 모델과 경쟁하는 성능 발휘
  • 대형 모델이 프롬프트를 최적화하면 소형 로컬 모델의 성능이 크게 향상되는 하이브리드 접근법 유효
  • 소형 모델은 약 45k 토큰 이후 환각 발생 경향이 있으나 프롬프트 최적화로 완화 가능
  • 로컬 LLM 커뮤니티 내 소형 모델 간 지식 공유 블로그 형태 아이디어 제안
Notable Quotes & Details
  • 사용 하드웨어: RX 5700XT, 8GB VRAM, 16GB 시스템 RAM
  • Qwen 3.5 4B, 180k 토큰 컨텍스트

개발자, 로컬 AI 실험자

Notes: 개인 실험 경험 공유; 로컬 LLM 커뮤니티 입문자 글

Vercel: Updates to Terms of Service

Vercel이 에이전트 기능과 AI 데이터 활용을 반영하여 서비스 약관 및 개인정보처리방침을 2026년 3월 업데이트

  • AI 에이전트 기능(인시던트 자동 대응, 성능 분석, 비용 최적화 PR 생성 등)을 반영한 약관 업데이트
  • Hobby/Trial Pro 플랜: AI 모델 훈련 및 데이터 공유에 기본 동의(Opt-in), 자기서비스 거부 가능
  • Pro(유료) 플랜: AI 모델 훈련에 기본 거부(Opt-out), 자기서비스 동의 가능
  • Enterprise: AI 모델 훈련 및 데이터 공유에 완전 거부
  • 2026-03-31 PST 이전 거부 시 해당 시점까지의 데이터 미사용 보장; 이후 거부 시 그 시점부터 적용
Notable Quotes & Details
  • Opt-out 마감: 2026-03-31 11:59:59 PST
  • 민감 정보(환경변수, API 키 등)는 익명화·삭제 처리 후 사용

개발자, 기업 의사결정자, Vercel 사용자

Vertex AI Vulnerability Exposes Google Cloud Data and Private Artifacts

Palo Alto Networks Unit 42가 Google Cloud의 Vertex AI 플랫폼에서 AI 에이전트의 과도한 기본 권한을 악용해 민감한 데이터 탈취 및 클라우드 환경 침해가 가능한 보안 취약점을 공개했다.

  • Vertex AI Agent Development Kit(ADK)로 배포된 AI 에이전트에 연결된 P4SA(Per-Project, Per-Product Service Agent)가 기본적으로 과도한 권한을 가지고 있음
  • Agent Engine을 통해 에이전트를 호출하면 Google 메타데이터 서비스가 서비스 에이전트의 자격증명, GCP 프로젝트 정보, AI 에이전트 ID, 호스트 머신의 스코프를 노출함
  • 탈취한 자격증명으로 AI 에이전트의 실행 컨텍스트에서 고객 프로젝트로 이동하여 해당 프로젝트 내 모든 Google Cloud Storage 버킷에 무제한 읽기 접근이 가능함
  • Google 관리 테넌트 프로젝트 내 Cloud Storage 버킷 및 제한된 Google 소유 Artifact Registry 레포지토리의 개인 컨테이너 이미지에도 접근 가능함
  • 침해된 AI 에이전트가 정상 동작처럼 보이면서 내부에서 데이터 유출·백도어 생성 등 '이중 에이전트' 역할을 할 수 있음
Notable Quotes & Details
  • "A misconfigured or compromised agent can become a 'double agent' that appears to serve its intended purpose, while secretly exfiltrating sensitive data, compromising infrastructure, and creating backdoors into an organization's most critical systems" — Unit 42 연구원 Ofir Shaty
  • "Gaining access to this proprietary code not only exposes Google's intellectual property, but also provides an attacker with a blueprint to find further vulnerabilities" — Unit 42

클라우드 보안 전문가, GCP/Vertex AI 사용자, 보안 아키텍트

The AI Arms Race – Why Unified Exposure Management Is Becoming a Boardroom Priority

AI가 사이버 공격의 속도와 자동화를 획기적으로 높이면서 통합 노출 관리(Unified Exposure Management)와 지속적 위협 평가가 기업 보안의 최우선 과제로 부상하고 있다.

  • 위협 행위자들이 생성형 AI로 대규모 표적 피싱 캠페인을 생성하고, ML로 방어 체계를 분석하여 복잡한 공격 경로를 자동으로 연결하고 있음
  • 폴리모픽 악성코드가 실시간으로 자체 코드를 재작성하여 시그니처 기반 탐지를 회피하고 있음
  • AI 기반 자동화로 취약점 발굴~공격까지의 사이클이 수시간~수일로 압축되어 기존 주기적 수동 평가 방식은 더 이상 유효하지 않음
  • PlexTrac 같은 플랫폼은 클라우드 잘못된 설정, 아이덴티티 위험, 애플리케이션 결함 등 다양한 소스 데이터를 통합해 동적 위험 뷰를 제공함
  • 방어자도 AI 기반 자율 노출 평가(Autonomous Exposure Assessment)와 지속적 위협 평가(Continuous Threat Assessment)를 결합해야 AI 공격에 대응 가능
Notable Quotes & Details

CISO, 기업 보안 팀, 보안 의사결정자

Notes: PlexTrac 제품 홍보 내용이 다수 포함된 스폰서드/홍보성 기사

Iran's hackers are on the offensive against the US and Israel

이란이 이스라엘·미국을 대상으로 가짜 SMS, 악성 앱 배포 등 사이버 심리전을 강화하고 있다는 보안 분석

  • 이란 해커들이 이스라엘 시민에게 군 당국을 사칭한 가짜 문자를 보내 악성 대피소 앱 설치를 유도함
  • 개인정보 탈취를 목적으로 한 가짜 앱 캠페인과 심리전용 협박 문자가 동시에 사용됨
  • 사이버 보안 전문가들은 이를 이란·이스라엘·미국 간 인터넷상 대규모 사이버전의 일환으로 분석
  • 물리적 군사 충돌과 병행해 사이버 공간에서도 적극적 공세가 진행 중임
Notable Quotes & Details

보안 전문가, 일반 독자

Final hours to save up to 60% on select Western Digital SSDs during the Amazon Spring Sale

Amazon 봄 세일에서 WD Black SSD를 최대 60% 할인 판매 중이며, 당일 마감 예정임

  • WD Black SSD 최대 4TB 용량 모델이 Amazon 봄 세일에서 최대 60% 할인 중
  • 대표 모델 SN850X(4TB)는 읽기 7,300 MB/s, 쓰기 6,300 MB/s의 고성능 제공
  • 통합 히트싱크 탑재로 과열 방지 기능 포함
  • AI 열풍으로 인한 SSD·RAM 가격 급등 속에 드문 대규모 할인 기회로 소개됨
  • 세일은 당일 자정 종료 예정으로 즉시 구매 권장
Notable Quotes & Details
  • 최대 60% 할인
  • 읽기 속도 7,300 MB/s, 쓰기 속도 6,300 MB/s

소비자, 게이머, 스토리지 업그레이드를 고려하는 일반 독자

Notes: 홍보성 콘텐츠. 어필리에이트 수익 공시 포함.

The best way to protect your phone from a warrantless search in 2026

미국 당국의 무영장 스마트폰 수색에 대비해 기기를 보호하는 최선의 방법을 안내

  • 생체인증(지문·Face ID)보다 패스코드 방식이 수정헌법 5조(자기부죄 거부권)에 의해 더 강하게 보호됨
  • 압수 가능성이 있을 때 기기 전원을 미리 꺼두는 것이 핵심 보호 조치
  • 2024년 9th Circuit은 지문을 이용한 잠금 해제 강요가 5th Amendment 위반이 아니라고 판결, 법적 권리는 여전히 불명확
  • 미국 내 당국의 기기 압수·구금이 점차 공격적으로 변화하고 있어 실질적 위협이 증가 중
  • 주(州) 법원 판례는 엇갈리며, 연방대법원은 아직 이 문제에 대한 심리를 기각한 상태
Notable Quotes & Details
  • 9th Circuit 2024년 판결: 지문 잠금 해제 강요는 5th Amendment 위반 아님
  • "The majority of the courts have found that being required by law enforcement to give your code to your devices violates your Fifth Amendment right" — Ignacio Alvarez

일반 독자, 시민권 및 프라이버시 관심자

The overselling of AI - and how to resist it

AI 코딩 모델의 실제 프로덕션 성공률이 마케팅 약속에 비해 크게 과장되어 있다는 연구 결과와 업계 경고

  • BARE 연구에 따르면 최고 AI 코딩 모델도 실제 프로덕션 코드에서 성공률 23% 미만
  • 대부분의 모델이 벤치마크에서 85% 이상을 기록하지만 실제 유지보수 작업 성공률은 평균 17%에 불과
  • 57개 LLM을 9개 언어(C, C++, C#, Go, Java, JavaScript, PHP, Python, TypeScript)의 4,276개 실제 소스 파일에서 평가, 총 243,732개 모델-파일 쌍 분석
  • 언어별 성공률 편차 큼: JavaScript 32%, C 4%, 복잡한 아키텍처 작업에서는 1.5%까지 하락
  • 전문가들은 AI 도구가 기존 시스템 대비 10~20배 비용이 들 수 있다고 경고
Notable Quotes & Details
  • 최고 모델 성공률 23% 미만
  • 벤치마크 평균 85% 이상 vs 실제 유지보수 작업 평균 17%
  • 57개 LLM, 243,732개 평가 쌍
  • JavaScript 32%, C 4%, 복잡한 아키텍처 작업 1.5%

개발자, 기술 관리자, AI 도입을 검토하는 기업 의사결정자

I replaced my Sony WH-1000XM6 with the AirPods Max 2 for a week - and didn't miss a beat

AirPods Max 2를 Sony WH-1000XM6 대신 일주일간 사용한 실사용 리뷰

  • AirPods Max 2의 업그레이드는 기존 사용자를 만족시킬 수준이지만, 소니·보스 팬을 전환시키기에는 미흡
  • 눈에 띄는 외관 변화보다 보이지 않는 내부 개선이 핵심
  • 초기 AirPods Max에 관심 없었다면 2세대에도 매력을 느끼기 어려울 것으로 평가
  • Apple 생태계 내 소프트웨어 통합도는 여전히 강점
Notable Quotes & Details
  • Sony WH-1000XM5 현재 $248 (정가 대비 $152 할인)
  • Beats Studio Pro $170 (정가 대비 $181 할인)

소비자, 프리미엄 오디오 기기 구매자

Notes: 어필리에이트 수익 공시 포함된 리뷰 콘텐츠.

The '80s Submersible That Transformed Underwater Exploration

1984년 개발된 단인용 심해 잠수정 Deep Rover의 혁신적 설계와 개발 역사 소개

  • Deep Rover는 1984년 해양생물학자 Sylvia Earle과 잠수함 엔지니어 Graham Hawkes가 공동 설계, 1985년 운용 시작
  • 기존 잠수정의 엎드린 자세·소형 창구 방식을 탈피해 앉아서 전방위 시야(아크릴 구형 캡슐)로 조종하는 혁신적 설계 채택
  • 두께 13cm의 아크릴 구형 캐빈으로 수심 1,000m까지 잠수 가능, 다수의 잠수 기록 수립
  • 초기 자금 유치 실패 후 Earle과 Hawkes가 사비를 모아 Deep Ocean Technology를 창업해 개발 진행
  • 자금 마련을 위해 유전 점검용 무인 ROV(원격 조종 잠수정)를 10대 제작·판매한 뒤 유인 잠수정 개발로 복귀
Notable Quotes & Details
  • 수심 1,000m 잠수 가능
  • 아크릴 캐빈 두께 13cm
  • 1984년 제작, 1985년 운용 개시
  • Deep Ocean Technology 창업: 1981년 여름, 오클랜드 Earle 자택 차고

기술 역사 관심자, 해양 공학·잠수함 기술 애호가

크로마, '컨텍스트 핵심'만 걸러내는 검색 특화 에이전트 '컨텍스트-1' 출시

크로마가 RAG 시스템의 비용·지연·컨텍스트 로트 문제를 해결하는 검색 특화 에이전트 '컨텍스트-1(Context-1)'을 공개했다.

  • 200억 개 매개변수의 중형 모델로 대형 모델 수준의 검색 성능을 달성하면서 비용과 추론 속도(최대 10배)를 크게 개선
  • '자기 편집 컨텍스트(self-editing context)' 기술로 불필요한 문서를 약 94% 정확도로 실시간 제거하여 컨텍스트 로트 방지
  • 질문을 하위 질의로 분해하고 평균 한 턴당 2.56회 병렬 검색을 수행하는 멀티홉 검색 방식 채택
  • 검색과 생성을 분리한 '검색 서브에이전트' 구조로, 최종 답변은 별도 대형 추론 모델이 담당
  • 강화 학습(RL)을 활용해 검색 과정 자체의 효율성을 개선하는 단계적 학습 방식 적용
Notable Quotes & Details
  • 200억 개 매개변수
  • 약 94% 정확도로 불필요한 정보 제거
  • 최대 10배 빠른 추론 속도
  • 평균 한 턴당 2.56회 검색 호출
  • 3만2000 토큰 컨텍스트 제한 환경에서 효율적 탐색 유지

AI 개발자, RAG 시스템 엔지니어, LLM 아키텍처 연구자

세일즈포스, 음성 검색 지연 316배 단축하는 '보이스에이전트RAG' 출시

세일즈포스가 음성 AI의 RAG 검색 지연 문제를 해결하기 위해 이중 에이전트 구조의 '보이스에이전트RAG(VoiceAgentRAG)' 아키텍처를 온라인 아카이브에 공개했다.

  • '패스트 싱커(Fast Talker)'와 '슬로우 싱커(Slow Thinker)'로 구성된 이중 에이전트 구조로 검색과 응답 생성을 분리
  • 의미 기반 캐시(semantic cache)를 활용해 캐시 적중 시 0.35ms의 초저지연 응답 구현 (기존 평균 110ms 대비 최대 316배 단축)
  • 슬로우 싱커가 대화 흐름을 분석해 다음 질문을 예측하고 관련 문서를 미리 가져오는 선제적 검색(pre-fetching) 방식 적용
  • 200개 질의·10개 시나리오 평가에서 약 75% 캐시 적중률 기록, 특정 시나리오에서는 최대 95% 달성
  • OpenAI, Anthropic, Google 등 주요 AI 모델 및 음성 인식·합성, 벡터 DB와 연동 가능
Notable Quotes & Details
  • 검색 지연 최대 316배 단축
  • 캐시 적중 시 0.35ms (기존 평균 110ms)
  • 약 75% 캐시 적중률, 최대 95%
  • 200개 질의·10개 시나리오 기반 평가

음성 AI 개발자, RAG 시스템 연구자, 실시간 대화 AI 서비스 엔지니어

[게시판] 카카오, 국민연금공단과 공공 AI 혁신 위한 MOU 체결 등 단신

카카오의 국민연금공단 MOU 체결, 크라우드아카데미의 AI 부트캠프 사업 참여, 스카이월드와이드의 전자정부 프레임워크 ISP 사업 참여 등 AI 업계 단신을 모은 기사다.

  • 카카오, 국민연금공단과 'AI 기반 공공서비스 혁신 및 업무전환 MOU' 체결 — AI 기반 연금 서비스 및 행정 업무 AI 접목 방안 모색
  • 크라우드아카데미, 교육부 '2026 첨단산업 인재양성 부트캠프' 사업 참여 — 에이전틱 AI 솔루션 '알피(AIpy)' 지방 3개 거점 대학에 도입
  • 스카이월드와이드, 행정안전부 주관 '차세대 전자정부 표준프레임워크 ISP' 사업 참여 — 하이브리드 RAG 및 MCP 서버 구축 담당
Notable Quotes & Details

공공 IT 업계 종사자, 기업 의사결정자, AI 정책 관계자

Notes: 단신 모음 형태의 기사로 각 내용이 간략하게만 소개됨

"국민 과반수, AI 서비스로 챗GPT·제미나이 선택"

과학기술정보통신부가 발표한 '2025 인터넷이용실태조사'에서 국민의 AI 서비스 이용률이 67%까지 증가했으며, 챗GPT가 41.8%로 가장 많이 사용되는 것으로 나타났다.

  • AI 서비스 경험자 비율이 2021년 32.4%에서 2025년 67%로 꾸준히 상승
  • 생성 AI 서비스 경험자는 2024년 33.3%에서 2025년 44.5%로 11.2%p 증가
  • 주요 이용 서비스 순위: 챗GPT(41.8%), 제미나이(9.8%), 코파일럿(2.2%), 클로바X(2.0%)
  • 유료 생성 AI 구독 비율은 7.9%이며, 챗GPT 유료 구독이 7.3%로 가장 높음
Notable Quotes & Details
  • AI 서비스 경험자 67% (2025년, 2021년 32.4% 대비)
  • 챗GPT 이용률 41.8%
  • 제미나이 이용률 9.8%
  • 생성AI 경험자 44.5% (2025년)
  • 유료 구독 비율 7.9%

일반 독자, AI 서비스 기업, 정책 입안자

루닛·KAIST, 정부의 '의료·바이오 특화 AI 모델' 중간 평가 통과

루닛 컨소시엄과 KAIST 컨소시엄이 개발 중인 의료·바이오 특화 AI 파운데이션 모델이 정부 중간 평가를 80점 이상으로 통과하고 2단계 개발에 돌입했다.

  • 두 컨소시엄 모두 중간 평가 80점 이상 획득, 2단계 지원 조건인 70점 초과 — GPU B200 256장 지원 지속
  • 루닛의 16B급 MoE 모델은 Claude 3.5 Sonnet 등 초대형 모델 대비 의학 논문 질의응답·출처 일치성·코드 작성 항목에서 우수한 성과 달성 및 응급실 진단명 94% 일치
  • KAIST의 2B급 바이오 모델(K-폴드)은 AlphaFold3에 근접한 단백질 구조 예측 정확도, 평균 30분 걸리던 예측을 1분 이내로 단축 (최대 30배 빠름)
  • 4월 초 허깅페이스(Hugging Face)에 두 모델 오픈소스 공개 예정
  • 루닛은 2단계에서 최대 32B 모델로 확장, 7~8월 9개 병원 및 SK 바이오팜 등에서 현장 실증 예정
Notable Quotes & Details
  • 루닛 16B급 MoE 모델
  • KAIST 2B급 K-폴드 모델
  • AlphaFold3에 근접한 성능
  • 진단명 94% 일치율
  • 단백질 구조 예측 최대 30배 빠른 속도 (30분 → 1분 이내)
  • GPU B200 256장 지원

AI 연구자, 의료·바이오 분야 전문가, 정책 입안자, 제약·신약 개발자

앤트로픽 광란의 3월… 한 달 14개 이상 업데이트 발표

앤트로픽이 2026년 3월 한 달 동안 14개 이상의 제품 및 기능 업데이트를 발표하고, 미 국방부 계약 관련 소송에서 법적 성과를 거뒀다.

  • 3월 주요 출시: Claude Sonnet 4.6 (베타, 최대 100만 토큰 컨텍스트 윈도 지원, 코딩 성능 대폭 향상)
  • 3월 23일 Pro·Max 구독자 대상 '컴퓨터 사용(computer use)' 기능 리서치 프리뷰 공개
  • Claude Code가 웹·모바일 환경에 정식 출시
  • 5차례 서비스 장애(outage) 발생, 피크 시간대 무료·Pro·Max 구독자 5시간 세션 한도 하향 조정
  • 연방 판사가 미 국방부(DOD)의 Claude 계약 관련 소송에서 앤트로픽 측에 예비 금지 명령 — 수정헌법 제1조 위반 판결
Notable Quotes & Details
  • 3월 한 달 14개 이상 업데이트
  • 5차례 서비스 장애
  • 최대 100만 토큰 컨텍스트 윈도 (Claude Sonnet 4.6 베타)
  • 3월 23일 컴퓨터 사용 기능 출시

AI 업계 종사자, Claude 사용자, 기업 IT 의사결정자

Notes: AI 매터스와 제휴 기사이며, Claude 3.5 Sonnet과 ChatGPT를 활용해 작성됐다고 명시됨

AI 건강 챗봇, 쏟아지지만… "효과 검증은 아직"

Microsoft, Amazon, OpenAI 등이 AI 건강 챗봇을 잇달아 출시하고 있지만, 독립 전문가 검증 없이 대중에 공개된다는 점에 대해 연구자들의 우려가 커지고 있다.

  • Microsoft '코파일럿 헬스', Amazon '헬스 AI'(One Medical 회원 전용에서 일반 개방), OpenAI '챗GPT 헬스', Anthropic Claude 등 AI 건강 서비스 속속 출시
  • 학계 전문가 6명 모두 독립 전문가 검증 없이 출시되는 현실에 우려 표명
  • Mount Sinai 연구: ChatGPT 헬스가 경증에 과도 치료 권장, 응급 상황 판단 미흡
  • 비전문 사용자가 LLM과 협력해 의료 시나리오 분석 시 정답률 약 33%에 불과
  • Microsoft는 하루 5,000만 건의 건강 관련 질문 수신 — 수요는 분명히 존재하나 근거 기반 검증 필요
Notable Quotes & Details
  • Microsoft 하루 5,000만 건 건강 관련 질문 수신
  • 비전문 사용자와 LLM 협력 시 정답률 약 33%

일반 독자, 의료 전문가, AI 정책 입안자, 헬스케어 서비스 기획자

Notes: MIT Technology Review 원문 기사를 바탕으로 한 번역·재작성 기사

아크릴, 국산SW 기반 AI칩 1000~3000장 성능 검증

한국 AI 인프라 기업 아크릴이 자사 GPU 클러스터 최적화 소프트웨어 'GPUBASE'의 1000~3000장 규모 대규모 성능 검증 프로젝트 'K-Scale evaluation'에 착수했다.

  • GPUBASE: 다중경로 전송, PeRF(트래픽 차등화), GPU 동적 할당, 멀티벤더 GPU 통합 관리 등 4대 핵심 기술 탑재
  • Horizontal K-Scale: 3개 이상의 클라우드에 GPU를 분산 배치해 누적 1000장 이상 환경에서 호환성·안정성 검증
  • Vertical K-Scale: 단일 클라우드에서 1000장 이상 GPU 단일 클러스터 구성으로 극한 성능 및 확장성 검증
  • 한국어 특화 LLM 및 의료 AI 모델 '아름.H(ALLM.H)'를 테스트 워크로드로 활용
  • 상반기 Phase 1(GPU 1000장) 착수, 연내 Phase 2(GPU 3000장 이상)로 확대 계획
Notable Quotes & Details
  • 초기 검증 규모 GPU 248장
  • Phase 1: GPU 1000장 (상반기)
  • Phase 2: GPU 3000장 이상 (연내)
  • 국가 전략 AI 클러스터 목표 26만 대 GPU 도입

AI 인프라 엔지니어, 클라우드 서비스 기업, 기업 IT 의사결정자

Jooojub
System S/W engineer
Explore Tags
Series
    Recent Post
    © 2026. jooojub. All right reserved.