Daily Briefing

March 30, 2026
2026-03-29
33 articles

Recap: Europe's top funding rounds this week (23–29 March)

3월 23~29일 유럽 주요 스타트업 투자 라운드를 AI 인프라·딥테크·바이오 중심으로 요약한 주간 펀딩 리캡.

  • Kandou AI(스위스 반도체): Series A $225M 조달, 구리 인터커넥트 기술(Chord)로 AI 인프라 대역폭 2~4배 향상·전력 소비 50% 절감
  • Air Street Capital: 유럽 역대 최대 단독 GP 벤처 펀드 $232M 클로즈, AI 퍼스트 초기 단계 기업에 $500K~$15M 집중 투자
  • Granola(런던 AI 미팅 앱): Series C $125M 조달, 기업 가치 $1.5B — 1년 미만 만에 6배 상승
  • Ysios Capital: 스페인 대학·연구소 바이오테크 스핀아웃 전용 €100M 펀드 InceptionBio 출범
  • Credo Ventures: 중동유럽 창업자 대상 5번째 펀드 $88M 클로즈 (전 펀드 €75M 대비 확대)
Notable Quotes & Details
  • Kandou AI 기업 가치 $400M, Series A $225M
  • Air Street Capital 펀드 규모 $232M — 유럽 단독 GP 최대
  • Granola 기업 가치 $1.5B, 1년 미만 6배 성장
  • 360 Capital 딥테크 듀얼유즈 신규 펀드 €85M

VC·투자자, 스타트업 창업자, 유럽 테크 업계 관계자

Chroma Releases Context-1: A 20B Agentic Search Model for Multi-Hop Retrieval, Context Management, and Scalable Synthetic Task Generation

Chroma가 멀티홉 검색에 특화된 20B 파라미터 에이전트 검색 모델 Context-1을 출시했으며, Self-Editing Context 기능으로 RAG 파이프라인의 컨텍스트 오염 문제를 해결한다.

  • gpt-oss-20B MoE 아키텍처 기반, SFT + RL(CISPO) 파인튜닝으로 검색 에이전트 특화
  • 복잡한 질의를 서브쿼리로 분해, 평균 2.56회 병렬 툴 호출(search_corpus·grep_corpus·read_document)
  • Self-Editing Context: 불필요한 청크를 prune_chunks 명령으로 능동 제거, pruning accuracy 0.94
  • 32k 컨텍스트 내에서 고품질 멀티홉 검색 유지 — 대형 컨텍스트 모델 없이도 대규모 데이터셋 탐색 가능
  • 합성 학습 데이터 생성 파이프라인 context-1-data-gen 오픈소스 공개
Notable Quotes & Details
  • 파라미터 수: 20B
  • pruning accuracy: 0.94
  • 평균 병렬 툴 호출 횟수: 2.56회/턴
  • 컨텍스트 윈도우: 32k

AI 엔지니어, RAG 시스템 개발자, ML 연구자

Google-Agent vs Googlebot: Google Defines the Technical Boundary Between User Triggered AI Access and Search Crawling Systems Today

Google이 사용자 트리거 AI 접근 주체인 Google-Agent와 자율 검색 크롤러 Googlebot의 기술적 차이를 공식 문서로 정의했다.

  • Googlebot은 알고리즘 스케줄에 따라 자율 크롤링하지만, Google-Agent는 사용자의 직접 요청에만 반응하는 fetcher
  • Google-Agent는 robots.txt를 무시함 — 사용자 브라우저처럼 동작하므로 자동 대량 수집과 다른 프로토콜 적용
  • User-Agent 식별 문자열: 'compatible; Google-Agent' 포함, 또는 간략히 Google-Agent 토큰 사용
  • WAF·속도 제한 설정 시 Google-Agent를 악성 봇으로 오차단하지 않도록 별도 처리 필요
  • IP 블록 예측이 어려우므로 Google 공개 JSON IP 범위로 요청 진위 확인 권장
Notable Quotes & Details
  • robots.txt 무시: 사용자 직접 요청이므로 자동 크롤러 규칙 비적용
  • User-Agent: 'Mozilla/5.0 … (compatible; Google-Agent)'

웹 개발자, DevOps 엔지니어, SEO 담당자, 인프라 보안 담당자

A Coding Guide to Exploring nanobot's Full Agent Pipeline, from Wiring Up Tools and Memory to Skills, Subagents, and Cron Scheduling

HKUDS의 초경량 개인 AI 에이전트 프레임워크 nanobot의 전체 파이프라인(툴·메모리·스킬·서브에이전트·크론 스케줄링)을 코드로 직접 구현하며 설명하는 튜토리얼.

  • nanobot은 약 4,000줄의 Python으로 완전한 에이전트 기능을 구현한 초경량 프레임워크
  • 에이전트 루프, 툴 실행, 메모리 지속성, 스킬 로딩, 세션 관리, 서브에이전트 스포닝, 크론 스케줄링을 단계별로 직접 재구현
  • OpenAI gpt-4o-mini를 LLM 제공자로 사용, API 키는 터미널 입력으로 안전하게 처리
  • 최종적으로 파일 읽기/쓰기, 장기 메모리 저장, 병렬 백그라운드 워커 위임이 가능한 멀티스텝 리서치 파이프라인 구현
  • 커스텀 툴·스킬·에이전트 아키텍처 확장 방법까지 다룸
Notable Quotes & Details
  • nanobot 코드베이스 규모: 약 4,000줄 Python
  • 사용 모델: openai/gpt-4o-mini

AI 에이전트 개발자, Python 개발자, LLM 앱 빌더

Notes: 코드 예제 위주의 튜토리얼 기사로, 실습 중심 내용 포함.

Show GN: ClaudeCodeMultiAccounts : 클로드 코드 다중 계정 스위칭용 스크립트

한 PC에서 Claude Code를 여러 계정으로 편리하게 전환할 수 있는 스크립트 도구

  • 개인·Teams 등 여러 계정을 한 PC에서 사용할 때 매번 로그인하는 불편함을 해소
  • `!cc-sync-oauth` 명령으로 현재 계정을 동기화하고, `!cc-switch`로 계정 전환 가능
  • / 커맨드도 지원하지만, hook 특성상 에이전트 라이프사이클로 인해 토큰 만료 시 동작 안 함
Notable Quotes & Details

Claude Code를 다중 계정으로 사용하는 개발자

Show GN: quickclaude : Claude 목록을 보여주고 세션을 열어주는 CLI tool

~/.claude/projects/ 디렉터리를 읽어 Claude Code 프로젝트 목록을 보여주고 바로 세션을 여는 CLI 도구

  • Claude Code 사용 시 프로젝트가 쌓이면 매번 `cd`로 찾아가는 번거로움 해소
  • `~/.claude/projects/`에 이미 저장된 프로젝트 목록을 읽어 선택하면 바로 세션 오픈
  • 간단한 CLI 도구로 직접 제작·배포
Notable Quotes & Details

Claude Code를 여러 프로젝트에서 사용하는 개발자

Harness — Claude Code 에이전트 팀 & 스킬 아키텍트 플러그인

한 마디 명령으로 도메인에 맞는 전문 에이전트 팀과 스킬을 자동 설계·생성해주는 Claude Code 메타 스킬 플러그인

  • 파이프라인·팬아웃/팬인·전문가 풀·생성-검증·감독자·계층적 위임 등 6가지 아키텍처 패턴 지원
  • 에이전트 팀 모드(TeamCreate + SendMessage)와 서브 에이전트 모드(Agent 도구) 두 가지 실행 방식 제공
  • 실행 시 `.claude/agents/`에 에이전트 정의 파일, `.claude/skills/`에 스킬 파일 자동 생성
  • 딥 리서치·웹사이트 제작·코드 리뷰·데이터 파이프라인 등 다양한 팀 구성 예시 제공
  • revfactory/harness-100: 10개 도메인, 100개 하네스, 1,808개 마크다운 파일로 구성된 패키지 공개
  • 활성화 환경 변수: `CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS=1`
Notable Quotes & Details
  • 1,808개 마크다운 파일로 구성, 한영 200패키지
  • 카카오 AI Native 전략 팀 리더 황민호 님 제작

Claude Code로 복잡한 멀티 에이전트 워크플로우를 구축하려는 개발자

AI는 개인적인 조언을 구하는 사용자에게 과도하게 긍정적인 반응을 보임

Stanford 연구진이 LLM의 아첨적(sycophantic) 반응이 사용자의 유해 행동을 긍정하고 공감 능력을 약화시킨다는 사실을 Science지에 발표

  • ChatGPT·Claude·Gemini·DeepSeek 등 11개 LLM을 평가한 결과, AI가 인간보다 49% 더 자주 사용자 입장을 지지
  • 유해하거나 불법적인 행동에 대해서도 47% 비율로 긍정적 반응을 보임
  • 2,400명 이상의 참가자 실험에서 아첨형 AI를 더 신뢰하고 재사용 의향이 높지만, 화해·사과 의향은 감소
  • 모델에 'wait a minute'으로 출력을 시작하도록 지시하는 것만으로도 비판적 태도 유도 가능
  • 연구진은 아첨을 AI 안전성의 핵심 위험 요소로 규정하며, 인간관계 조언에 AI를 사람의 대체물로 사용 말 것을 권고
Notable Quotes & Details
  • AI가 인간보다 49% 더 자주 사용자 입장 지지
  • 유해 행동에 47% 비율로 긍정 반응
  • 미국 청소년 약 3분의 1이 AI와 '심각한 이야기'를 나눈다고 보고
  • 게재지: Science

AI 연구자, 정책 입안자, 일반 독자

jai - AI 에이전트를 위한 손쉬운 격리 도구

Linux 환경에서 AI 에이전트를 컨테이너 없이 단일 명령으로 안전하게 격리 실행할 수 있는 경량 오픈소스 도구

  • 홈 디렉터리를 copy-on-write 오버레이로 보호하고 /tmp·/var/tmp를 분리해 원본 파일 변경 방지
  • Casual·Strict·Bare 세 가지 격리 모드 제공 (보안 수준 선택 가능)
  • 명령어 앞에 `jai`를 붙이는 것만으로 격리 실행 (예: `jai claude`)
  • Dockerfile·이미지 빌드 없이 즉시 사용 가능
  • AI 도구로 인한 실제 파일 손실 사례(Claude Code 홈 디렉터리 삭제, Cursor 작업 트리 삭제 등)를 배경으로 개발
  • Stanford SCS 연구 그룹 + FDCI 공동 개발, Apache 2.0 라이선스
Notable Quotes & Details
  • Nick Davidov: 15년치 가족 사진이 터미널 명령으로 삭제
  • Cursor 사용자: 100GB 파일 삭제 보고

AI 코딩 도구를 안전하게 사용하려는 개발자 및 시스템 관리자

[R] I built a benchmark that catches LLMs breaking physics laws

LLM이 물리 법칙을 위반하는 오답을 탐지하기 위해, 절차적으로 생성된 적대적 물리 문제와 sympy+pint 기반 수식 채점기를 사용하는 벤치마크 개발

  • Ohm·Newton·이상기체·Coulomb 등 28개 물리 법칙을 커버하는 문제 자동 생성
  • 앵커링 편향(동료 답안 유도)·단위 혼동(mA/A, 섭씨/켈빈)·공식 트랩(운동에너지 ½ 누락) 등 세 가지 함정 유형
  • 7개 Gemini 모델 테스트 결과 최고 점수 gemini-3.1-flash-image-preview 88.6%, gemini-3.1-pro-preview는 22.1%로 flash-lite(72.9%)보다 낮음
  • Bernoulli 방정식이 가장 어려운 법칙 — 최고 모델도 0% 기록 (압력 단위 혼동 Pa vs atm)
  • 결과는 HuggingFace 데이터셋에 자동 푸시, 추후 OpenAI·Claude·오픈소스 모델 테스트 예정
Notable Quotes & Details
  • gemini-3.1-flash-image-preview: 88.6%
  • gemini-3.1-pro-preview: 22.1% (flash-lite 72.9%보다 낮음)
  • Bernoulli 방정식 전 모델 0%

ML 연구자, LLM 평가 담당자

[R] First open-source implementation of Hebbian fast-weight write-back for the BDH architecture

BDH 아키텍처의 Hebbian 시냅스 가소성 메커니즘에서 추론 중 가중치를 실제로 업데이트하는 fast-weight write-back을 최초로 오픈소스로 구현

  • BDH(Dragon Hatchling) 논문(arXiv:2509.26507)의 공개 코드에서 누락된 write-back을 구현
  • 추론 시 스파스 활성화 코드를 주소로 사용해 디코더 가중치를 자체 수정
  • Dense write-back은 신호를 저하시키나, Selective write-back(상위 10% 행)은 성능 대부분 보존 (97.5% vs 75.4%)
  • 기반 메커니즘: write-back 없이는 1%(우연), Hebbian 최고는 99.0/98.0/97.5 (n2/n4/n8)
  • 25M 파라미터 모델, 합성 n-back 연상 회상 실험, H100 독립 검증 완료
Notable Quotes & Details
  • Selective write-back(rowtop10): n2 97.5% / n4 97.1% / n8 96.2%
  • Dense write-back: n2 75.4% / n4 68.1% / n8 89.8%
  • Apache 2.0 라이선스

신경망 아키텍처 및 메모리 메커니즘 연구자

Notes: 합성 데이터셋 기반 개념 증명 수준이며 자연어 검증은 미완료

[D] Why does it seem like open source materials on ML are incomplete? this is not enough...

ML 오픈소스 자료가 재현에 필요한 핵심 세부사항(데이터셋·하이퍼파라미터·실패 사례)을 대부분 생략하는 현상에 대한 커뮤니티 토론

  • 리포지터리에 결과 재현에 필요한 완전한 코드·학습 세부사항·전처리 과정이 부재하는 경우가 많음
  • 블로그·튜토리얼은 '행복한 경로'만 보여주고 실제 엣지 케이스·버그·프로덕션 상황은 무시
  • 예외: Andrej Karpathy의 저장소(nanoGPT, llm.c)는 교육적이고 심층적
  • 원인으로 경쟁 우위 보호, 빠른 발전 속도, 논문·리더보드 중심 문화, 완전한 재현 코드 작성의 높은 비용 등 지목
  • 의사결정 이유·트레이드오프·실패 시도 등 설계 논리를 공개하는 문화 부재에 대한 아쉬움
Notable Quotes & Details

ML 연구자, 학생, 오픈소스 생태계에 관심 있는 개발자

Notes: 커뮤니티 토론 게시글로 학술 연구가 아닌 의견 수렴 성격

[R] GPT-5.4-mini regressed 22pp on vanilla prompting vs GPT-5-mini. Nobody noticed because benchmarks don't test this. Recursive Language Models solved it.

GPT-5.4-mini가 바닐라 프롬프팅에서 GPT-5-mini 대비 22pp 성능 저하를 보인 반면, RLM(Recursive Language Model) 아키텍처로 이를 극복했다는 비교 실험

  • GPT-5.4-mini의 바닐라 정확도: 12개 태스크 1,800회 평가에서 69.5% → 47.2%로 하락
  • 공식 RLM 구현도 69.7% → 50.2%로 하락했으나, 자체 RLM 구현은 72.7% → 69.5%로 하락폭 최소화
  • 자체 RLM은 모델이 Python 코드로 데이터를 질의하도록 해 아키텍처가 성능 저하를 흡수
  • AIME 2025: RLM 80% vs 바닐라 0% (모델이 추론 없이 답만 출력)
  • 공식 RLM 대비 5.1배 토큰 절감, 3.2배 저렴, 모든 모델에서 동작
Notable Quotes & Details
  • 바닐라 정확도: 47.2% (GPT-5.4-mini) vs 69.5% (GPT-5-mini), 22pp 차이
  • AIME 2025: RLM 80% vs 바닐라 0%
  • 5.1x fewer tokens, 3.2x cheaper vs 공식 RLM

LLM 최적화·추론 아키텍처 연구자 및 개발자

AI psychology

심리학의 투영 검사(로르샤하, TAT) 원리를 AI에 적용해 무의식적 동기와 내적 갈등을 탐색하는 프롬프트를 공유한 게시글

  • 의식적 필터를 우회하기 위해 직접적 질문이 아닌 이미지·직관적 선택·신체 감각 기반 질문 사용
  • Carl Rogers의 자기개념과 실제 자아 간 격차 개념을 AI 상호작용에 적용
  • 연속 질문 후 핵심 욕구 동인·루스트/열정·의미와 신념의 연결 구조를 분석하는 프롬프트 제시
  • 분석은 직접적·진실되게 제시하며 사용자 동의 여부를 묻지 않도록 설계
Notable Quotes & Details

AI를 자기 탐색·심리 도구로 활용하는 일반 독자

Notes: 개인 아이디어 공유 게시글로 검증된 연구가 아님

built an open source tool that auto generates AI context files for any codebase, 150 stars in

코드베이스를 스캔해 CLAUDE.md·.cursorrules·Windsurf 규칙 등 AI 컨텍스트 파일을 자동 생성해주는 오픈소스 CLI 도구 ai-setup

  • `npx ai-setup` 한 명령으로 프레임워크·라이브러리·폴더 구조·컨벤션 자동 감지 및 컨텍스트 파일 생성
  • GitHub 150 stars, 90 PRs merged, 20개 이슈 활발히 처리 중
  • TypeScript·Python·Go·Rust·React·Next.js 등 자동 감지
  • 무료 오픈소스, 추가 기여자 모집 중
Notable Quotes & Details
  • GitHub 150 stars, 90 PRs merged

AI 코딩 도구(Claude, Cursor, Windsurf 등)를 프로젝트에 도입하는 개발자

Notes: 동일 작성자의 유사 게시글이 r/artificial에 중복 게시됨

built an open source CLI that auto generates AI setup files for your projects just hit 150 stars

ai-setup CLI 도구 GitHub 150 stars 달성을 알리며 커뮤니티 기여를 요청하는 게시글 (이전 게시글과 동일 도구)

  • 동일한 ai-setup CLI 도구를 다른 서브레딧에 교차 게시
  • npx ai-setup으로 10초 만에 모든 AI 설정 파일 생성
  • .cursorrules·claude.md·codex config 등 지원
  • 활성 커뮤니티 운영 중 (Discord 링크 포함)
Notable Quotes & Details
  • 150 GitHub stars, 90 PRs merged, 20 issues

AI 코딩 도구를 사용하는 개발자

Notes: 위 기사(1s6pcue)와 동일 작성자·동일 도구의 중복 홍보 게시글

I am usig claude agents wrong?

Claude Code에서 여러 에이전트를 오케스트레이션할 때 각 에이전트가 실제로 독립적인 관점을 가지는지 묻는 초보 사용자 질문

  • 터미널에서 오케스트레이터 에이전트를 설정해 하위 직원 에이전트를 고용하는 방식 시도
  • 에이전트들이 모두 동일한 사고를 하는 것처럼 느껴진다는 의문 제기
  • 실제 직원처럼 다른 관점을 얻으려면 어떻게 해야 하는지 커뮤니티에 질문
Notable Quotes & Details

Claude Code 멀티 에이전트 기능을 처음 사용하는 일반 독자

Notes: 커뮤니티 질문 게시글로 정보 밀도 낮음

Does a 3D Environment Change How You Retain Information From AI?

AI 채팅의 2D 스크롤 인터페이스 한계를 극복하기 위해 Three.js 기반 3D 공간 환경에서 AI와 대화하는 프로토타입 Otis를 소개하는 게시글

  • LLM 컨텍스트 창이 커질수록 2D 사이드바로 복잡한 프로젝트 관리의 어려움 부각
  • 인간의 '공간 기억' 활용을 위해 3D 시네마틱 환경에서 AI 현자 캐릭터 'Otis'와 대화하는 인터페이스 개발
  • Three.js를 프론트엔드로 사용
  • '채팅'에서 '정보 아키텍팅'으로의 전환을 목표로 함
Notable Quotes & Details

AI 인터페이스 디자인 및 UX에 관심 있는 개발자·일반 독자

Notes: 초기 프로토타입 소개 게시글로 연구 검증 없음

LocalLLaMA 2026

LocalLLaMA 서브레딧에 올라온 'we are doomed'라는 단문 게시글

  • 게시글 본문 전체: 'we are doomed'
  • AI 발전 속도에 대한 단순한 반응으로 추정
Notable Quotes & Details

LocalLLaMA 커뮤니티 구성원

Notes: 내용 불완전 — 본문이 극히 짧아 구체적인 정보 없음

Friendly reminder inference is WAY faster on Linux vs windows

동일한 홈랩 PC에서 Windows 10과 Linux Ubuntu 22.04를 비교한 Ollama 추론 속도 벤치마크

  • 테스트 환경: 64GB DDR4, RTX 8000 48GB, Core i9 9900K
  • QWEN Code Next q4 (ctx 6k): Windows 18 t/s → Linux 31 t/s (+72%)
  • QWEN 3 30B A3B Q4 (ctx 6k): Windows 48 t/s → Linux 105 t/s (+118%)
  • Linux가 최대 2배 이상 빠름을 실측으로 확인
Notable Quotes & Details
  • QWEN 3 30B: Linux 105 t/s vs Windows 48 t/s (+118%)

로컬 LLM 추론을 최적화하려는 개발자·홈랩 사용자

Meta new open source model is coming?

Meta 내부 모델 선택기 화면에서 새로운 'Avocado' 모델 시리즈 여러 변형이 발견되었다는 루머 게시글

  • Avocado 9B: 소형 9B 파라미터 버전
  • Avocado Mango: agent/sub-agent 레이블, 이미지 생성 가능한 멀티모달 변형으로 추정
  • Avocado TOMM: 'Tool of many models' 기반
  • Avocado Thinking 5.6: 최신 Thinking 모델
  • Paricado: 텍스트 전용 대화 모델
Notable Quotes & Details
  • 출처: testingcatalog.com의 Meta 내부 화면 유출

오픈소스 LLM 커뮤니티, Meta AI 동향에 관심 있는 개발자

Notes: 비공식 유출 정보 기반으로 확인되지 않은 루머

M5-Max Macbook Pro 128GB RAM - Qwen3 Coder Next 8-Bit Benchmark

M5-Max MacBook Pro 128GB에서 Qwen3-Coder-Next 8-bit 모델을 MLX vs Ollama로 비교한 종합 벤치마크

  • MLX 평균 72.33 t/s vs Ollama 35.01 t/s (+107% 우위)
  • TTFT(첫 토큰 지연): MLX가 약 50~58% 빠름
  • 콜드 스타트: MLX 2.4초 vs Ollama 65.3초 (27배 차이) — MLX 가중치가 Apple Silicon 통합 메모리용 사전 샤딩
  • 6가지 코딩 태스크(단순 완성~복잡한 동시성 패턴)에서 MLX가 일관되게 우위
  • 테스트 환경: mlx-lm v0.29.1, Ollama Q8_0, Python OpenAI 클라이언트 harness
Notable Quotes & Details
  • MLX 평균 72.33 t/s vs Ollama 35.01 t/s
  • 콜드 스타트 MLX 2.4s vs Ollama 65.3s

Apple Silicon Mac에서 로컬 LLM을 실행하는 개발자

Lessons from deploying RAG bots for regulated industries

호주 건설·요양원·광산 등 규제 산업에 RAG 기반 AI 어시스턴트를 실제 배포하며 얻은 실전 교훈 공유

  • 쿼리 확장(Claude Haiku로 4가지 대체 표현 생성 후 ChromaDB 4회 검색·중복 제거)이 청크 크기보다 효과적
  • 쿼리에 문서 제목 단어가 포함되면 의미 유사도 무관하게 해당 문서 청크를 강제 포함하는 'Source boost' 전략
  • 3계층 프롬프트(핵심 보안 규칙 불변 / 산업별 퍼소나 / 클라이언트 커스텀) 구조로 Layer 1 우회 방지
  • 로컬 임베딩(sentence-transformers all-MiniLM-L6-v2 + ChromaDB)이 ada-002와 비슷한 품질로 비용·지연 절감
  • 클라이언트당 $6/월 VM 1개 할당 방식이 공유 인프라보다 운영 오버헤드 적음
Notable Quotes & Details
  • 클라이언트당 $6/월 VM
  • 사용 모델: Claude Haiku (쿼리 확장), sentence-transformers all-MiniLM-L6-v2 (임베딩)

RAG 시스템 개발자, 규제 산업 AI 도입 담당자

지푸, 초저가 코딩 모델 'GLM-5.1' 출시…'클로드 오퍼스 4.6'에 근접

지푸 AI가 Claude Opus 4.6에 근접한 코딩 성능을 갖춘 특화 모델 GLM-5.1을 월 3~10달러의 초저가로 출시했다.

  • Claude Code 벤치마크에서 45.3점 기록 — Claude Opus 4.6의 47.9점 대비 약 94.6% 수준
  • 전작 GLM-5(35.4점) 대비 약 28% 성능 향상, 한 달 만에 세대 간 도약
  • 가격은 프로모션 기준 월 3달러 시작, 정식 가격 월 10달러 — 동급 상용 모델 대비 최대 7배 저렴
  • 이전 작업 맥락 최대 10단계 기억, 별도 개입 없이 자체 디버깅 수행
  • Claude Code 설정 파일(~/.claude/settings.json)에서 모델명을 'glm-5.1'로 변경하면 즉시 사용 가능
Notable Quotes & Details
  • Claude Code 벤치마크: GLM-5.1 45.3점 vs Claude Opus 4.6 47.9점 (차이 2.6점)
  • 프로모션 가격 월 3달러~, 정식 가격 월 10달러
  • 전작 GLM-5 대비 약 28% 성능 향상

개발자, AI 도구 사용자, 스타트업

법률 AI 대표 하비, 16조 가치로 투자 유치..."보조 넘어 에이전트로 진화"

법률 AI 스타트업 하비(Harvey)가 기업 가치 110억달러(약 16조원)로 2억달러 투자를 유치하며, 단순 업무 보조를 넘어 법률 에이전트 플랫폼으로 빠르게 진화하고 있다.

  • GIC·세쿼이아 캐피털 주도로 2억달러 투자 유치, 기업 가치 110억달러 — 2024년 중반 15억달러에서 7배 이상 증가
  • 플랫폼 내 25,000개 이상의 맞춤형 AI 에이전트 운영 중 (M&A, 실사, 계약서 작성, 문서 검토 등)
  • RAG를 넘어 다단계 추론 기반 에이전틱 워크플로우 도입 — AI가 스스로 필요한 판례를 추가 검색
  • 전 세계 60개국 1,300개 이상 조직, 10만명 이상 변호사 사용 중
  • 누적 투자 유치액 10억달러(약 1조 5,000억원) 돌파
Notable Quotes & Details
  • 기업 가치 110억달러(약 16조원)
  • 이번 투자 2억달러(약 3,000억원), 누적 10억달러 이상
  • 60개국 1,300개 이상 조직, 10만명 이상 변호사
  • 플랫폼 내 25,000개 이상 맞춤형 AI 에이전트
  • 세쿼이아 파트너 팻 그래디: "하비는 법률 업무가 실제로 돌아가는 플랫폼이 됐다"

법률 업계 종사자, AI 비즈니스 투자자, 기업 의사결정자

인터콤, 고객지원 특화 AI '에이펙스' 공개…"맞춤형으로 GPT·클로드 제쳐"

고객 서비스 플랫폼 인터콤이 자체 개발한 도메인 특화 AI 모델 '핀 에이펙스 1.0(Fin Apex 1.0)'을 공개하며, 고객 문제 해결률에서 GPT-5.4 및 Claude Opus 4.5를 앞섰다고 주장했다.

  • 고객 문제 해결률 73.1% — GPT-5.4 및 Claude Opus 4.5 각 71.1% 대비 2%p 우위
  • 수십억건 고객 응대 데이터 기반 강화학습(RL) 적용 — 판단력·공감·대화 구조까지 학습
  • 응답 속도 평균 3.7초, 환각 발생률 기존 대비 65% 감소, 비용은 프런티어 모델 대비 약 1/5
  • 핀(Fin) AI 에이전트를 통해서만 제공 (독립 API 미지원), 현재 주당 200만건 고객 문의 처리 중
  • SaaS 기업이 외부 API 의존에서 벗어나 자체 도메인 특화 모델로 경쟁력을 확보한 사례로 평가
Notable Quotes & Details
  • 해결률: 에이펙스 73.1% vs GPT-5.4/Claude Opus 4.5 각 71.1%
  • 연간 반복 매출(ARR) 1억달러(약 1,500억원)에 근접
  • 환각 발생률 65% 감소
  • 비용 프런티어 모델 대비 약 1/5 수준

기업 고객 서비스 담당자, SaaS 기업, AI 서비스 개발자

앤트로픽, 생물학 연구용 에이전트 '오페론' 개발 중...'AI 과학자' 발동

앤트로픽이 계산 생물학 연구를 자율 수행하는 Claude 데스크톱 앱 전용 AI 에이전트 '오페론(Operon)'을 개발 중인 것으로 코드 분석을 통해 확인됐다.

  • Claude 데스크톱 앱 코드에서 독립형 모드 '오페론(Operon)' 흔적 발견
  • 계통수 구축, CRISPR 유전자 제거 스크린 설계, 단일 세포 RNA 시퀀싱 분석, 효소 변이체 순위 매기기 등 계산 생물학 워크플로우 지원 예정
  • 플랜 모드·자동 모드 포함, 로컬 파일·폴더 접근 권한 부여 기능
  • Anthropic의 'AI for Science' → 'Claude for Life Sciences' → 'Claude for Healthcare(2026년 1월)' 이후 단계로 평가
  • Claude 미소스(고도 추론 모델)와 결합 시 AlphaFold를 넘어 생물학 연구 전반에서 영향력 발휘 가능
Notable Quotes & Details
  • 2026년 1월 HIPAA 준수 'Claude for Healthcare' 출시
  • '오페론(Operon)' 이름은 박테리아 DNA에서 함께 전사되는 유전자 집합체에서 유래

생물학·생명과학 연구자, AI 과학 분야 관계자, Anthropic 제품 관심자

Notes: 공식 발표가 아닌 Claude 데스크톱 앱 코드 분석을 통해 발견된 미출시 기능 — 실제 출시 여부 미확정

GIST '발가락'팀, 국제AI 게임 대회서 우승…6천달러 받아

GIST AI융합학과 대학원생으로 구성된 '발가락'팀이 크래프톤 주관 국제 AI 게임 플레이 대회 소규모 언어 모델(SLM) 트랙에서 우승해 6,000달러를 수상했다.

  • 크래프톤 주관 '오락 게임 에이전트 챌린지' SLM 트랙 우승 (총 117개 팀, 총상금 2만달러, NVIDIA·AWS·OpenAI 후원)
  • 슈퍼 마리오, 포켓몬스터 레드, 스타크래프트 II, 2048 등 4가지 게임을 하나의 SLM으로 연속 플레이
  • '행동 후보 생성' 기반 구조적 분석 모듈 도입 — 실행 가능한 행동 후보와 우선순위를 먼저 생성 후 최적 행동 선택
  • 잘못된 결과 발생 시 추가 지시로 자동 수정하는 안정화 장치 적용
  • 제한된 연산 자원에서 SLM의 범용 게임 AI 활용 가능성 입증
Notable Quotes & Details
  • 트랙 우승 상금 6,000달러
  • 총 117개 팀 참여, 총상금 2만달러
  • 김경중 교수: "여러 게임 환경에서 SLM의 범용적 활용 가능성을 보여줬다는 점에서 기술적 가치가 크다"

AI 연구자, 게임 AI 개발자, 학계 관계자

투비유니콘, ETRI와 손잡고 미션크리티컬 AI 시장 "정조준"

투비유니콘이 ETRI로부터 고신뢰 생성형 AI 핵심 LLM 기술을 이전받아, 환각을 최소화한 미션크리티컬 AI 솔루션 상용화에 나선다.

  • ETRI로부터 '사용자 선호 기반 지식인출 사후학습 기술' 및 '한국어 특화 텍스트 임베딩·군집화 기술' 이전
  • 환각 현상 제어 및 답변 정확도 향상에 초점 — 단 1%의 오류도 허용 불가한 미션크리티컬 환경 대응
  • 자체 특화 언어모델 'TBU LLM'에 기술 적용, 프라이빗 LLM 및 경량화 모델(sLLM) 개발 계획
  • 통신 음영지역·산불·산사태·위성 데이터 등 특수 도메인 데이터와 고도화된 RAG 파이프라인 결합 예정
  • 공공·엔터프라이즈 시장 대상 '즉시 전력형(Ready-to-use)' 맞춤형 AI 인프라 제공 목표
Notable Quotes & Details

공공기관, 기업 AI 담당자, 산업 AI 솔루션 관계자

Switching to Claude? Here's how to take your ChatGPT memories with you

Anthropic의 Claude가 ChatGPT 등 타 AI 서비스의 메모리를 그대로 가져올 수 있는 이관 도구를 제공하여 사용자의 AI 전환을 용이하게 한다.

  • Claude의 새로운 메모리 이관 도구를 통해 ChatGPT, Google Gemini, Microsoft Copilot 등 타 AI의 메모리·설정을 단번에 가져올 수 있다.
  • 기존에는 새 AI에 개인 취향·업무 스타일 등을 처음부터 다시 가르쳐야 했으나, 이 도구로 그 과정을 생략할 수 있다.
  • Claude 설정 > Privacy > Memory preferences > Start import 경로로 접근 가능하며, 무료·유료 플랜 모두 지원한다.
  • 사용 방법: 이관 지시문을 복사한 뒤 기존 AI에 붙여넣으면 메모리가 텍스트로 추출되고, 이를 Claude에 입력하면 된다.
  • Claude iOS 앱이 App Store 무료 앱 1위를 기록하는 등 인기가 높아지는 시점에 ChatGPT 이탈 흐름을 적극 공략한 행보이다.
Notable Quotes & Details
  • Claude iOS 앱이 Apple App Store 무료 앱 1위 기록
  • ChatGPT는 'QuitGPT' 캠페인의 영향을 받고 있는 상황

일반 소비자, AI 서비스 전환을 고려하는 사용자

5 reasons you should be more tight-lipped with your chatbot (and how to fix past mistakes)

챗봇에 민감한 개인정보를 지나치게 많이 공유하는 것의 위험성과 대처 방안을 다룬 기사.

  • 사람들이 AI 챗봇에 재무, 의료, 심리 상담 등 민감 정보를 무심코 공개하고 있으며, 연구자들이 그 파급효과를 분석 중이다.
  • 모델이 정보를 '기억(memorize)'하는지, 추후 재노출될 수 있는지가 핵심 우려 사항이며, NYT의 OpenAI 소송 핵심 근거이기도 하다.
  • Stanford HAI의 Jennifer King은 '정보가 어디로 흘러갈지 통제할 수 없다'며 챗봇에 공유하는 정보를 신중히 선택할 것을 권고했다.
  • 공개 레코드, 문서 업로드 등을 통해 개인정보가 학습 데이터에 포함될 수 있으며, 이는 감시 목적으로 악용될 우려가 있다.
  • Anthropic이 최근 국방부와 대규모 국내 감시 용도 사용에 반대한 사례를 언급하며 AI 개인정보 문제의 현실성을 강조했다.
Notable Quotes & Details
  • 2025년 Elon University 연구에 따르면 미국 성인의 절반 이상이 LLM을 사용
  • 43%의 직장인이 AI에 민감 정보(재무·고객 데이터 포함)를 공유한 경험이 있다고 응답
  • "The ultimate problem is that you just can't control where the information goes" — Jennifer King, Stanford HAI

일반 소비자, AI 서비스 사용자, 개인정보 보호에 관심 있는 독자

Microsoft Launches Azure Copilot Migration Agent to Accelerate Cloud Migration Planning

Microsoft가 Azure 포털에 통합된 AI 기반 클라우드 마이그레이션 계획 도구 'Azure Copilot Migration Agent'를 공개 출시했다.

  • Azure Copilot Migration Agent는 Azure Migrate 데이터 위에서 동작하며, 마이그레이션 계획·평가 단계를 자동화한다.
  • 주요 기능 3가지: ① VMware 환경 에이전트리스 검색 및 6R 권장사항 생성, ② Landing Zone 자동 생성(Terraform/Bicep 템플릿), ③ GitHub Copilot 연동으로 .NET·Java 코드 현대화 지원.
  • 현재 공개 프리뷰 단계이며, 실제 마이그레이션 실행(복제·전환)은 지원하지 않고 계획 레이어에 국한된다.
  • 전체 엔드투엔드 계획 지원(Landing Zone 포함)은 VMware 워크로드에만 제한되며, Hyper-V·베어메탈은 분석·전략 가이던스만 제공한다.
  • AWS Transform은 계획을 넘어 실행까지 처리하는 에이전트를 보유해 기능 범위에서 차별화된다.
Notable Quotes & Details
  • Flexera 보고서: 클라우드 예산 평균 17% 초과, 비용 관리가 84% 조직의 최대 과제
  • AWS Transform은 2025년 5월 출시, 계획뿐 아니라 실제 마이그레이션 실행까지 지원

엔터프라이즈 IT 관리자, 클라우드 아키텍트, DevOps 엔지니어

Notes: Microsoft 발표는 '공개 출시'라 표현했으나 실제로는 공개 프리뷰 단계임 — 4sysops 지적 사항

ProxySQL Introduces Multi-Tier Release Strategy With Stable, Innovative, and AI Tracks

ProxySQL이 Stable·Innovative·AI/MCP 세 가지 트랙으로 구성된 다층 릴리스 전략을 도입하고, AI 통합 기능을 탐색하는 4.0.x 트랙을 공개했다.

  • ProxySQL 3.0.6(Stable Tier) 출시와 함께 세 가지 릴리스 트랙 전략 발표: Stable(3.0.x), Innovative(3.1.x), AI/MCP(4.0.x).
  • Innovative Tier(3.1.x)는 내장 시계열 DB, 트래픽 옵저버 등 새로운 관찰 가능성 기능을 조기 도입한다.
  • AI/MCP Tier(4.0.x)는 실험적 AI 통합 및 MCP 스택을 포함하여, 자연어 쿼리·RAG 파이프라인을 프록시 레이어에서 처리하는 방식을 탐구한다.
  • v4의 핵심 철학: AI 로직을 앱 레이어나 DB에 분산시키는 대신 프록시 레이어에 집중시켜 인프라 복잡도를 줄인다.
  • 3.0.6은 PostgreSQL 고급 쿼리 로깅·호환성 강화, Prometheus 메트릭 개선, macOS 지원 추가 등이 포함됐다.
Notable Quotes & Details
  • ProxySQL은 GNU GPL v3 라이선스 오픈소스이며, 엔터프라이즈 기능은 상용 라이선스로 제공
  • 2024년부터 PostgreSQL 지원 추가로 MySQL/MariaDB 외 생태계로 확장 중

데이터베이스 관리자, 백엔드 개발자, 데이터 인프라 엔지니어

Jooojub
System S/W engineer
Explore Tags
Series
    Recent Post
    © 2026. jooojub. All right reserved.