Daily Briefing

April 6, 2026
2026-04-05
27 articles

LinkedIn is secretly scanning your browser for 6,000 extensions, and you weren't told

LinkedIn이 사용자 동의 없이 Chrome 브라우저에서 6,000개 이상의 확장 프로그램을 스캔하고 기기 지문을 수집하는 행위가 'BrowserGate'로 폭로되었다.

  • LinkedIn은 'Spectroscopy' 시스템을 통해 방문 시 6,222개의 Chrome 확장 프로그램 존재 여부를 조용히 스캔함
  • CPU 코어 수, 메모리, 화면 해상도 등 48가지 하드웨어·소프트웨어 특성을 수집해 기기 지문(fingerprint)을 생성
  • 수집된 지문은 RSA 공개키('apfcDfPK')로 암호화되어 세션의 모든 API 요청 헤더에 첨부됨
  • 이 관행은 LinkedIn 개인정보 처리방침에 전혀 기재되어 있지 않으며, 유럽 단체 Fairlinked e.V.의 조사로 드러남
  • 스캔 목록에는 Apollo, Lusha, ZoomInfo 등 LinkedIn 경쟁 영업 도구 200개 이상이 포함됨
Notable Quotes & Details
  • 2.7MB 자바스크립트 번들
  • 6,222개 동시 요청
  • 48가지 기기 특성 수집
  • 암호화 키 식별자: 'apfcDfPK'
  • BleepingComputer 독자적 검증 완료

일반 독자, 보안 연구자, 개인정보 정책 관심자

Microsoft calls Copilot 'entertainment only' while charging $30 a month for it

Microsoft가 Copilot 이용약관에 '오락 목적 전용'이라고 명시하면서 월 $30를 청구하는 모순이 주목받고 있으며, 실제 유료 사용자는 대상의 1/30에 불과하다.

  • Microsoft Copilot 이용약관에 '오락 목적 전용이며 중요한 조언에는 사용하지 말 것'이라는 경고 문구가 포함됨
  • 해당 약관은 2025년 10월 업데이트됐으며 2026년 4월에 광범위하게 알려짐
  • 기업용 Microsoft 365 Copilot은 해당 조항에서 제외되며, 소비자용 제품에만 적용됨
  • Microsoft는 AI 관련 자본 지출로 2025 회계연도에 약 $800억 지출, OpenAI에 $130억 투자
  • 실제 유료 사용자는 대상 사용자의 1/30 미만으로 채택률이 저조함
Notable Quotes & Details
  • 'Copilot is for entertainment purposes only.'
  • Microsoft 365 Copilot 가격: 월 $30/사용자(엔터프라이즈), $18(비즈니스)
  • FY2025 AI 자본 지출 약 $800억
  • OpenAI 투자 $130억
  • 유료 채택률: 대상 사용자의 1/30 미만

기업 IT 의사결정자, 일반 독자

Recap: Europe's top funding rounds this week (30 March – 5 April)

2026년 3월 30일~4월 5일 유럽의 주요 스타트업 투자 라운드를 정리한 주간 펀딩 요약이다.

  • Mistral AI: $8억 3,000만 달러 부채 조달 — 파리 남쪽 Bruyères-le-Châtel 데이터센터에 Nvidia 칩 13,800개 구매 목적, 2026년 Q2 가동 예정
  • IQM Quantum Computers: BlackRock으로부터 €5,000만 조달, SPAC 합병으로 나스닥 상장 추진(기업 가치 약 $18억, 2026년 6월 예상)
  • Midas(베를린): $5,000만 Series A — 기관 투자 전략을 온체인 상품으로 토큰화하는 플랫폼
  • Standing Ovation(파리): €3,000만 Series B — 유제품 폐기물에서 카세인을 생산하는 정밀 발효 스타트업
  • Kestra(프랑스): $2,500만 Series A — 오픈소스 데이터·AI·인프라 오케스트레이션 플랫폼, 18개월간 기업 매출 25배 성장
Notable Quotes & Details
  • Mistral AI $830M 부채 조달 (Nvidia 칩 13,800개)
  • IQM €50M, 기업 가치 약 $1.8B
  • Midas $50M Series A, 총 자산 발행 $17억 이상
  • Kestra 18개월간 기업 매출 25배 성장, 전 세계 30,000개 이상 조직 사용

투자자, 스타트업 관계자, 기술 업계 종사자

In Japan, the robot isn't coming for your job; it's filling the one nobody wants

일본이 인구 감소와 노동력 부족 문제를 해결하기 위해 물리적 AI(로봇)를 국가적 생존 전략으로 적극 도입하고 있다.

  • 일본 경제산업성은 2040년까지 국내 물리적 AI 산업을 구축하고 글로벌 시장 30% 점유 목표 발표(2026년 3월)
  • 일본은 2022년 기준 산업용 로봇 세계 시장의 약 70% 점유하며 강점 보유
  • 2024년 기준 일본 인구 14년 연속 감소, 생산가능인구 비율 59.6%로 향후 20년간 약 1,500만 명 감소 전망
  • 물리적 AI 도입 주요 동인: 문화적 로봇 수용도, 인구통계학적 노동력 부족, 메카트로닉스·하드웨어 공급망 강점
  • 미국·중국은 하드웨어-소프트웨어-데이터 통합 풀스택 시스템 개발에서 더 빠른 속도로 진전 중
Notable Quotes & Details
  • 2040년 글로벌 물리적 AI 시장 30% 점유 목표
  • 산업용 로봇 세계 시장 70% 점유(2022년)
  • 생산가능인구 59.6%, 향후 20년간 약 1,500만 명 감소 전망
  • '물리적 AI는 단순 효율화가 아닌 산업 생존의 문제' — Salesforce Ventures Sho Yamanaka

산업 정책 관심자, 로보틱스·AI 투자자, 기술 업계 종사자

I let Gemini in Google Maps plan my day and it went surprisingly well

Google Maps에 통합된 Gemini AI가 대중교통 기반 하루 일정을 계획하는 데 예상보다 유용하게 활용될 수 있음을 체험한 리뷰이다.

  • Google Maps의 Gemini('Ask Maps')는 텍스트 박스로 대화하며 지도 데이터·사용자 리뷰 기반으로 답변
  • 대중교통 이용, 점심·산책·카페 순서, 귀가 시간 등 구체적 조건을 반영한 일정 계획 가능
  • 날씨 확인 등 외부 정보도 연동 가능하며, 첫 제안이 맞지 않을 때 대화로 수정 가능
  • 기자는 타코 식당(Tacos Chukis), 식물 가게, 스칸디나비아 풍 카페로 구성된 만족스러운 일정을 받음
  • 잘 알려지지 않은 숨겨진 장소를 발견하는 데 효과적이었다고 평가
Notable Quotes & Details

일반 소비자, Google Maps 사용자

Notes: 개인 체험 리뷰 형식으로 홍보성 내용이 일부 포함될 수 있음

Meet 'AutoAgent': The Open-Source Library That Lets an AI Engineer and Optimize Its Own Agent Harness Overnight

AI가 에이전트 하네스(시스템 프롬프트·도구·오케스트레이션)를 스스로 엔지니어링하고 최적화하는 오픈소스 라이브러리 AutoAgent가 공개되었다.

  • AutoAgent는 메타-에이전트가 agent.py(하네스 파일)를 자동으로 수정·실험·개선하는 루프를 실행하며 사람의 개입을 최소화
  • 24시간 실행으로 SpreadsheetBench 1위(96.5%), TerminalBench GPT-5 점수 1위(55.1%) 달성
  • Andrej Karpathy의 autoresearch(ML 학습 루프 자동화)를 에이전트 엔지니어링에 적용한 개념
  • 사람은 program.md에 지시사항만 작성하며, agent.py는 메타-에이전트가 직접 반복 수정
  • results.tsv에 실험 이력이 자동 기록되어 메타-에이전트가 다음 실험 방향 학습에 활용
Notable Quotes & Details
  • SpreadsheetBench 1위 점수: 96.5%
  • TerminalBench GPT-5 점수 1위: 55.1%
  • 개발자: Kevin Gu (thirdlayer.inc)

AI 엔지니어, 개발자, 연구자

Inside the Creative Artificial Intelligence (AI) Stack: Where Human Vision and Artificial Intelligence Meet to Design Future Fashion

패션 산업에서 AI가 디자인, 트렌드 예측, 생산 전반에 걸쳐 핵심 도구로 부상하고 있는 현황을 개관하는 기사이다.

  • McKinsey 2026 State of Fashion 보고서에 따르면 글로벌 의류 브랜드 45% 이상이 AI 기반 디자인 도구를 도입해 개발 리드타임 단축
  • Adobe Firefly, Midjourney 등 생성 AI 도구가 무드보드·스케치·3D 프로토타입 제작에 활용됨
  • Fashion Diffusion 등 도구가 시각적 작업을 자동화하여 반복 주기를 단축
  • 멀티모달 AI가 텍스트·이미지·영상 데이터를 동시 분석하여 마이크로 트렌드 예측에 활용됨
  • WGSN 등 대형 기업은 4~5시즌 앞선 트렌드 예측을 수행하며, AI로 실시간 고객 피드백과 디자인 트렌드를 연동하는 브랜드 증가
Notable Quotes & Details
  • 글로벌 의류 브랜드 45% 이상 AI 디자인 도구 도입 (McKinsey 2026 State of Fashion)
  • WGSN: 4~5시즌 앞선 트렌드 예측

패션 업계 종사자, AI 연구자, 디자인 학생

Notes: 학생 대상 교육적 조언이 포함된 개요 형식의 기사

Show GN: Ravenclaw - AI 코딩 에이전트의 작업 컨텍스트를 관리하는 오픈소스 시스템

Claude Code, Gemini CLI, Codex 등 여러 AI 코딩 에이전트 간의 작업 컨텍스트를 세션을 초월해 일관되게 유지·재로드할 수 있는 오픈소스 시스템 Ravenclaw를 소개한 글

  • 어떤 AI 에이전트(Claude Code, Gemini CLI, Codex)를 사용하더라도 작업 컨텍스트가 Ravenclaw에 축적되며, 새 세션에서 MCP 도구로 이전 상황을 그대로 로드 가능
  • MCP 프로토콜로 40개 이상의 도구를 제공하며 CLI와 REST API로도 전체 기능 사용 가능
  • 웹 UI에서 프로젝트별 에픽/이슈 구조, 그래프 뷰, 진행률을 한눈에 파악 가능
  • 에이전트가 판단이 필요할 때 Human Input Request를 보내면 웹 UI에서 답변하는 방식 지원
  • Self-hosted, PostgreSQL만 있으면 구동 가능, Apache 2.0 라이선스
Notable Quotes & Details
  • GitHub: https://github.com/chainofdive/ravenclaw
  • Apache 2.0 라이선스
  • MCP 프로토콜로 40개 이상의 도구 제공

AI 에이전트를 활용하는 개발자

GitHub 역사상 가장 빠르게 10만 개의 스타를 기록한 오픈소스 프로젝트(Sigrid Jin&Bellman)

AI 에이전트를 통해 GitHub 이슈 관리·PR 머지·테스트를 자동화하는 'Oh My Codex' 시스템과 관련 도구들을 소개하며, AI 에이전트 기반 개발 워크플로우의 가능성을 공유한 글

  • Oh My Codex는 T-mux 세션 기반으로 여러 에이전트를 자동 스웜(swarm)하며 GitHub 이슈·PR·테스트 등을 자율 처리
  • AI가 생성한 낮은 품질의 코드(AI Slop)를 자동으로 정리하는 'AI Slop Cleaner' 스킬 내장
  • Wi-Fi 불량 환경에서도 텍스트 명령으로 프로젝트 스캐폴딩 완성이 가능할 만큼 고도화
  • 인간은 시스템 설계를 주도하고 AI 에이전트를 조율하는 역할을 담당해야 한다는 철학 강조
  • claw-code(Claude Code 유출 소스 기반 Python 클린룸 재작성 프로젝트)와도 연관 언급
Notable Quotes & Details
  • YouTube 영상: https://www.youtube.com/watch?v=RpFh0Nc7RvA

AI 에이전트를 활용하는 개발자

Notes: YouTube Gemini 요약 기반 내용과 GeekNews 커뮤니티 반응이 혼재되어 있어 내용 불완전

Apple, Arm Mac에서 Nvidia eGPU 사용을 허용하는 드라이버 승인

Tiny Corp이 개발한 드라이버를 Apple이 서명 승인함으로써 Arm Mac에서 Nvidia eGPU를 이용해 LLM을 실행할 수 있는 가능성이 열렸다는 소식

  • 드라이버는 Nvidia가 아닌 Tiny Corp이 개발, Apple의 서명 승인으로 SIP(System Integrity Protection) 비활성화 없이 사용 가능
  • Docker를 통한 직접 컴파일 필요, 일반 플러그 앤 플레이 방식은 아님
  • LLM 실행을 위한 용도로 설계되었으며, Apple이 AMD와 Nvidia 드라이버 모두 승인
  • 커뮤니티에서는 Thunderbolt 대역폭 제한으로 실용성이 낮고, LLM 목적이라면 중고 PC 구매가 낫다는 의견 다수
  • 현재 Tinygrad 전용으로만 동작하며 PyTorch에서 CUDA/Vulkan 사용 불가
Notable Quotes & Details
  • Apple이 2018년 이후 Nvidia eGPU 드라이버 서명을 거부해 왔음
  • LAN 내 Nvidia GPU 네트워크 마운트 방식은 약 4% 오버헤드 존재

Mac 사용자, ML/AI 개발자

감정적 표현이 AI 성능을 바꿀까? — 프롬프트 감정 프레이밍의 실제 효과

하버드 연구진이 6개 벤치마크로 실험한 결과, 고정 감정 프리픽스는 LLM 성능에 거의 영향을 주지 않으나 적응형 감정 선택(EmotionRL)은 일관된 성능 향상을 이끌어낼 수 있음을 발견한 연구 소개

  • 고정 감정 프리픽스(예: '화가 나서 묻는다')는 대부분의 태스크-모델 조합에서 성능에 유의미한 영향을 주지 않음
  • 감정 강도를 높여도(예: '극도로 두렵다') 정확도가 강도에 비례해 변하지 않음
  • 입력에 따라 조건화된 적응형 감정 선택(EmotionRL)은 5개 태스크 전반에서 평균 정적 감정 기준선을 초과하는 성능 향상 달성
  • Qwen3-14B, Llama 3.3-70B, DeepSeek-V3.2 세 가지 오픈소스 모델로 제로샷 추론 환경에서 평가
  • 연구진은 감정 프롬프팅을 '범용 템플릿'이 아닌 '적응형 라우팅 문제'로 재정의할 것을 제안
Notable Quotes & Details
  • arXiv:2604.02236v1
  • 저자: Minda Zhao, Yutong Yang 등 (하버드대·브린마우어대 공동 연구)
  • Plutchik의 기본 감정 이론 기반 6가지 감정(행복·슬픔·공포·분노·혐오·놀람) 사용
  • SocialIQA에서 모델과 감정 전반에 걸친 분산이 가장 두드러지게 나타남

AI 연구자, 프롬프트 엔지니어링에 관심 있는 개발자

Microsoft의 'Copilot' 이름을 사용하는 제품은 몇 개인가

Microsoft의 'Copilot' 명칭이 75개 이상의 제품과 기능에 사용되고 있으며 명명 체계의 일관성이 부족하다는 것을 분석하고 시각화한 글

  • 'Copilot' 명칭이 최소 75개 이상의 제품·기능에 사용됨(앱, 플랫폼, 키보드 키, 노트북 카테고리, Copilot 제작 도구 포함)
  • Microsoft 내부에서도 공식 전체 목록이 없어 여러 출처를 종합해 직접 정리한 결과
  • 각 Copilot을 카테고리별로 그룹화하고 상호 연결선으로 관계를 표현한 인터랙티브 시각화 맵 제작
  • 커뮤니티에서는 'Copilot'이 Microsoft가 LLM 기반 기능에 붙이는 공통 이름으로 사실상 자리 잡았다는 인식
  • Google의 'Gemini', Apple의 'Apple Intelligence'도 유사한 전략으로 평가
Notable Quotes & Details
  • 'Copilot' 명칭 최소 75개 이상 사용
  • "리눅스에서는 모든 것이 파일이고, 마이크로소프트에서는 모든 것이 Copilot" (커뮤니티 반응)

IT 업계 종사자, 개발자, 일반 독자

[D] Hash table aspects of ReLU neural networks

ReLU 신경망의 각 레이어가 국소 민감 해시 테이블 조회 및 연상 메모리로 해석될 수 있다는 이론적 관점을 제시하는 토론 글

  • ReLU 결정값을 대각 행렬 D로 모으면 레이어 출력은 DWx로 표현됨
  • 다음 레이어 가중치와의 곱 Wₙ₊₁Dₙ은 선형 매핑의 국소 민감 해시 테이블 조회로 해석 가능
  • Dₙ을 키로 하는 연상 메모리(associative memory)로도 볼 수 있음
  • 관련 논의는 Numenta 포럼(gated-linear-associative-memory)에서 진행 중
Notable Quotes & Details
  • https://discourse.numenta.org/t/gated-linear-associative-memory/12300

AI/ML 연구자, 신경망 이론에 관심 있는 개발자

Notes: Reddit 토론 형식의 간략한 예비(preliminary) 수준 글

Building behavioural response models of public figures using Brain scan data (Predict their next move using psychological modelling) [P]

Meta의 fMRI 스캔 기반 AI 모델 TRIBE v2를 활용해 공인의 행동 반응 패턴을 학습·예측하는 COGNEX 시스템을 소개한 글

  • Meta가 출시한 TRIBE v2는 텍스트·오디오·이미지·영상을 입력받아 인간 뇌의 처리 방식으로 변환하는 모델
  • COGNEX는 TRIBE를 공통 참조 프레임으로 삼아 특정 개인의 반응 패턴을 학습하고 평균 기준선에서 벗어나는 편차를 모델링
  • 자극(event)-반응(행동/발언) 쌍을 수집해 개인화된 행동 예측 모델 구축
  • 정보 분석, 협상, 공공 메시지 전략 등에 활용 가능하다고 주장
  • 오픈소스 공개 예정, 데모 영상 공개
Notable Quotes & Details
  • TRIBE v2: Meta가 약 2주 전 출시, fMRI 스캔 데이터로 훈련
  • 데모: https://youtu.be/fVaTJXiJ9ZM

AI 연구자, 정보 분석가, 심리 모델링에 관심 있는 개발자

Notes: 홍보성 게시물로 윤리적 고려사항에 대한 언급 없음

Auto agent - Self improving domain expertise agent

Meta 에이전트가 기존 에이전트의 하네스(도구·시스템 프롬프트)를 자동으로 반복 개선하여 24시간 이내에 여러 도메인 최상위 성능에 도달한 자기 개선 에이전트 시스템 AutoAgent를 소개한 글

  • 에이전트의 성능 저하 원인은 모델이 아닌 하네스(도구, 시스템 프롬프트 등)에 있다는 관점에서 출발
  • Meta 에이전트가 하네스를 자동 조정·테스트·반복 개선하여 목표 도달까지 자율 운용
  • 동일 모델(Claude)을 평가자로 활용해 실패 원인 파악 및 개선이 효율적으로 이루어짐
  • 터미널 벤치마크(코드)와 스프레드시트(금융 모델링) 두 도메인에서 최상위 랭킹 달성
  • GitHub 오픈소스로 공개
Notable Quotes & Details
  • 24시간 이내에 여러 도메인 #1 달성
  • GitHub: https://github.com/kevinrgu/autoagent

AI 개발자, 에이전트 시스템 연구자

Notes: 홍보성 Reddit 게시물

The person who replaces you probably won't be AI. It'll be someone from the next department over who learned to use it - opinion/discussion

AI 도구를 활용해 직무 경계를 넘나드는 사람들이 등장하면서 전략·제품·엔지니어링 각 직군의 역할 경계가 허물어지고 있다는 의견을 나누는 Reddit 토론

  • 전략 담당자가 Claude로 직접 프로토타입을 제작하고, 엔지니어가 제품 결정을 내리고, 프로덕트 담당자가 전략 가설을 직접 구현하는 현상
  • AI가 개인의 생산성을 극적으로 높여 직군 간 경계를 허물고 있음
  • 현재는 주로 tech/big tech 업계에서 나타나는 패턴이며, 타 업계로의 확산 여부 논의
  • 일자리를 빼앗는 주체는 AI 자체가 아니라 AI를 배운 옆 부서 동료일 것이라는 시각
Notable Quotes & Details

직장인, AI 활용에 관심 있는 일반 독자

Gemma 4 26b is the perfect all around local model and I'm surprised how well it does.

64GB Mac에서 Gemma 4 26B가 로컬 LLM 중 속도·코딩 성능·안정성을 고루 갖춘 최적 모델이라는 사용자 경험 공유

  • Doom 스타일 레이캐스터 구현 테스트에서 단 3번의 프롬프트로 성공(Qwen 계열은 루프나 재작성으로 실패)
  • Qwen 3 Coder나 Qwen 3.5 대비 시스템 부하가 적고 응답 속도가 빠름
  • 사고 과정이 간결하며 세부 사항에 지나치게 몰입하지 않는 특성
  • 2-3년 내 로컬 모델이 Claude Sonnet 수준에 도달할 수 있을 것으로 기대
Notable Quotes & Details
  • 64GB 메모리 Mac에서 테스트
  • Doom 스타일 레이캐스터를 3번의 프롬프트로 구현

로컬 LLM 사용자, 개발자

Gemma 4 31B vs Gemma 4 26B-A4B vs Qwen 3.5 27B — 30-question blind eval with Claude Opus 4.6 as judge

Claude Opus 4.6을 평가자로 사용한 30문항 블라인드 평가에서 Qwen 3.5 27B가 승리 횟수는 1위지만 실패율 10%가 리스크이며, Gemma 4 31B가 평균 점수 면에서 동점 최고를 기록했다는 비교 결과 공유

  • Qwen 3.5 27B: 14승(46.7%), 평균 8.17점 (0점 3개 제외 시 9.08로 최고)
  • Gemma 4 31B: 12승(40.0%), 평균 8.82점
  • Gemma 4 26B-A4B(MoE): 4승(13.3%), 평균 8.82점, 2개 질문에서 오류 발생
  • 카테고리별로 추론·분석은 Qwen 강세, 소통(Communication)은 Gemma 4 31B 압도
  • Claude Opus 4.6 평가자의 parse rate 99.9%, 절대 점수(0-10) 방식 사용
Notable Quotes & Details
  • 총 평가 비용: $4.50
  • Qwen 3.5 27B 0점 3개 발생 (CODE-001, REASON-004, ANALYSIS-017)
  • Claude Opus 4.6 parse rate 99.9%

AI 연구자, 로컬 LLM 개발자

Gemma 4 for 16 GB VRAM

16GB VRAM 환경에서 Gemma 4 26B A4B MoE 모델의 최적 양자화·파라미터 설정을 공유하고 Qwen 3.5 27B 대비 성능을 비교한 사용자 가이드

  • 추천 양자화: unsloth의 gemma-4-26B-A4B-it-UD-IQ4_XS.gguf
  • 최적 파라미터: --temp 0.3 --top-p 0.9 --min-p 0.1 --top-k 20
  • 비전 성능 향상을 위해 --image-min-tokens 300 --image-max-tokens 512 권장
  • Qwen 3.5 27B 대비 4배 빠른 생성 속도(80+ tps vs 20 tps), 멀티링귀얼·최신 라이브러리 활용·DevOps 분야에서 우수
  • llama.cpp b8660 빌드 사용 권장(최신 빌드에 토크나이저 이슈 존재)
Notable Quotes & Details
  • 80+ tps vs Qwen 3.5 27B의 20 tps
  • 30K+ 토큰 KV fp16 지원
  • llama.cpp b8660 이후 빌드에 토크나이저 이슈 발생

로컬 LLM 사용자, AI 개발자

One year ago DeepSeek R1 was 25 times bigger than Gemma 4

약 1년 전 671B 파라미터였던 DeepSeek R1과 현재 26B에 불과한 Gemma 4 MoE를 비교하며 로컬 LLM 발전 속도에 감탄하는 짧은 의견 글

  • DeepSeek R1: 약 1년 전 출시, MoE 구조, 671B 파라미터
  • Gemma 4 MoE: 26B 파라미터로 DeepSeek R1보다 약 25배 작음
  • 크기의 극적인 감소에도 불구하고 인상적인 성능을 보임
  • 로컬 LLM의 급속한 발전에 대한 기대감 표명
Notable Quotes & Details
  • DeepSeek R1: 671B 파라미터 (MoE)
  • Gemma 4 MoE: 26B 파라미터
  • 약 25배 크기 차이

AI/ML 관심 독자, 로컬 LLM 사용자

Notes: 매우 짧은 의견성 글

Comparing Qwen3.5 vs Gemma4 for Local Agentic Coding

24GB GPU(RTX 4090) 환경에서 Qwen3.5와 Gemma4를 로컬 에이전틱 코딩 작업으로 비교한 결과, Qwen3.5-27B가 신뢰성과 코드 품질 면에서 여전히 최선의 선택임을 확인한 글

  • Qwen3.5-27B: 복잡한 에이전틱 코딩 1회 성공, 코드 품질 최고(타입 힌트·docstring·pathlib 사용), ~45 tok/s, 21GB VRAM, 130K 컨텍스트
  • Gemma4-26B-A4B(MoE): ~135 tok/s로 빠르지만 코드 품질 최하, 재시도 필요
  • Gemma4-31B: Qwen3.5-27B와 공동 1위, 코드는 깔끔하나 depth 부족, 65K 컨텍스트(4090 기준 제한)
  • MoE 모델은 ~3배 빠른 생성 속도이나 복잡한 작업에서 재시도 필요
  • 모든 모델이 TDD 요청에도 실제 API를 호출하는 통합 테스트를 작성하는 공통 실패 보임
Notable Quotes & Details
  • Qwen3.5-27B ~45 tok/s vs Gemma4-26B-A4B ~135 tok/s
  • MoE 모델 생성 속도 약 3배 빠름
  • Qwen3.5-35B-A3B: 복잡한 작업에서 32K 토큰 생성

AI 개발자, 로컬 LLM 사용자

데이터 전문 머코어 해킹으로 주요 AI 기업 '학습 비밀' 유출 비상

AI 학습 데이터 공급업체 머코어(Mercor)가 LiteLLM 오픈소스 라이브러리를 악용한 공급망 공격에 의해 해킹되어 OpenAI·Anthropic·Meta·Google 등 주요 AI 기업의 학습 기밀이 유출될 위험에 처했다.

  • 해커 집단 TeamPCP가 LiteLLM의 CI/CD 파이프라인을 침해해 악성 패키지 2종을 PyPI에 배포(3월 27일), 약 40분간 배포된 뒤 발견·삭제됨
  • 악성코드는 환경변수, API 키, SSH 키, AWS·GCP·Azure 자격 증명, Kubernetes 구성 등을 수집해 외부로 유출하도록 설계됨
  • 머코어는 약 4TB의 데이터 유출을 확인했으며, 939GB 플랫폼 소스코드·211GB 사용자 DB·약 3TB 영상 인터뷰 녹화 파일 포함
  • Meta는 머코어와의 100억 달러(약 15조 원) 규모 협력을 무기한 중단했으며, 4만 명 이상 대상 집단 소송이 제기됨
  • 보안 전문가들은 이를 '정교한 연쇄 공급망 공격의 전형'으로 분석하며, 데이터셋뿐 아니라 학습 방법론 자체가 노출됐을 가능성을 경고함
Notable Quotes & Details
  • LiteLLM 월간 다운로드 수 약 9,700만 건, 전체 클라우드 환경의 36%에 사용
  • 유출 데이터 규모: 939GB 소스코드 + 211GB DB + 약 3TB 영상 파일 = 총 약 4TB
  • Meta의 머코어 협력 규모: 100억 달러(약 15조 원)
  • 집단 소송 대상: 4만 명 이상 전·현직 계약 직원 및 고객

AI 보안 연구자, 개발자, AI 기업 관계자

클로드 월 구독제로 '오픈클로' 못 쓴다..."시스템에 과도한 부담"

Anthropic이 급증하는 수요에 대응하기 위해 Claude 구독 서비스에서 오픈클로(OpenClaw) 등 타사 도구 사용 지원을 중단했다.

  • Claude Code 책임자 보리스 체르니가 X를 통해 다음 날부터 클로드 구독에서 타사 도구 사용 지원 중단을 공지, 단 하루의 유예기간으로 비판 받음
  • 타사 도구 사용자는 '추가 사용 패키지(할인 적용)'를 구매하거나 Anthropic 개발자 플랫폼 API를 별도 사용해야 함
  • Anthropic은 구독 서비스가 타사 도구의 사용 패턴을 고려해 설계되지 않았으며 서비스 약관에도 위배된다고 설명
  • Claude는 최근 수 주간 인기가 급증해 미국 Apple 앱스토어 다운로드 1위를 기록했으며, 전주에는 구독자 사용 제한을 조정한 바 있음
  • Google도 유사하게 Gemini CLI의 타사 도구 사용자에 대해 서비스 약관 위반을 근거로 조치를 취함
Notable Quotes & Details
  • 체르니: "우리 시스템은 특정 워크로드에 최적화돼 있으며, 최대한 많은 사용자에게 가장 지능적인 모델을 제공하기 위해 지속적으로 최적화 작업을 진행하고 있다"
  • 오픈클로 창립자 피터 스타인버거: "그들은 금요일 밤에 나쁜 소식을 기습적으로 내놓았다"
  • Claude, 미국 Apple 앱스토어 다운로드 1위 달성(지난달)

Claude 구독자, AI 서비스 이용자, 개발자

[안광섭의 AI 진테제] 앤트로픽 소스코드 유출이 뜻하는 것

Claude Code 소스코드 유출 사건을 계기로, '클린룸 재구현'을 내세운 파생 저장소의 법적·윤리적 문제점과 Anthropic 내부의 이중 잣대를 비판적으로 분석한 칼럼이다.

  • 3월 31일 npm 배포 버전에 소스맵 파일이 포함되는 패키징 오류로 Claude Code 전체 소스코드(약 51만 줄)가 유출되어 GitHub에 미러링됨
  • Anthropic의 DMCA 테이크다운으로 원본 미러와 8,100개 이상 포크가 차단되자, 한 저장소는 유출본 기반으로 '파이썬 클린룸 재구현'으로 재포장해 5만 개 이상의 스타를 그대로 이전함
  • 클린룸 역설계는 원본 코드를 본 적 없는 팀이 명세 문서만 보고 재구현해야 하며, 소스코드를 직접 읽은 뒤 재구현하는 것은 법적으로 클린룸의 전제를 위반함
  • 미국 영업비밀법(DTSA)상 유출 정보를 우연·실수로 취득했음을 알았거나 알 수 있었던 자의 사용을 금지하며, 보안 취약성이 법적 보호를 소멸시키지 않음
  • 유출 코드에서 발견된 '언더커버 모드(Undercover Mode)'는 Anthropic이 외부에는 AI 코드 어트리뷰션을 요구하면서 자사 직원의 오픈소스 기여 시에는 AI 흔적을 지우는 기능을 만들었다는 이중 잣대를 드러냄
Notable Quotes & Details
  • 유출 소스코드 규모: 약 51만 줄
  • DMCA 테이크다운 대상: 원본 미러 및 8,100개 이상의 포크
  • 재포장 저장소 스타 수: 5만 개 이상 (유출본 시절 스타 그대로 이전)

AI 개발자, 법률·보안 관계자, 오픈소스 커뮤니티

Notes: 필자 개인 칼럼으로 법적 해석이 포함되어 있으며, 필자 스스로 법 전문가가 아님을 밝히고 있음

How I beat the $4 gas average in 2026: These 5 apps show you the cheapest station nearby

이란 전쟁으로 인한 유가 급등 상황에서 근처 최저가 주유소를 찾아주는 모바일 앱 5가지를 소개하는 기사

  • 이란 전쟁 여파로 미국 평균 휘발유 가격이 갤런당 약 $4까지 상승, 캘리포니아는 $6에 육박
  • GasBuddy(iOS·Android 무료)는 위치 기반으로 주변 주유소 목록과 갤런당 가격, 사용자 평점을 표시
  • Google Maps, Waze 등 내비게이션 앱에서도 주변 주유소 가격 확인 가능
  • 앱마다 정유 종류(레귤러·프리미엄·디젤 등) 필터 기능 제공
  • ZDNET의 제휴 커미션 모델 기반 추천 기사로, 편집 독립성 준수를 강조
Notable Quotes & Details
  • 미국 평균 휘발유 가격: 갤런당 약 $4 (전년 대비 $1 이상 상승)
  • 캘리포니아 일부 지역: 갤런당 최대 $6

일반 소비자, 자동차 운전자

Notes: ZDNET 제휴 광고 기반 추천 기사. AI/기술 키워드와 직접적 연관성 낮음.

Jooojub
System S/W engineer
Explore Tags
Series
    Recent Post
    © 2026. jooojub. All right reserved.