Daily Briefing

April 28, 2026
2026-04-27
70 articles

The next phase of the Microsoft-OpenAI partnership

Microsoft와 OpenAI가 파트너십을 단순화하고 장기적인 협력을 강화하기 위한 새로운 계약을 체결했다.

  • Microsoft는 OpenAI의 주요 클라우드 파트너로 유지되며, OpenAI 제품은 Azure에서 먼저 출시된다.
  • OpenAI는 이제 모든 클라우드 공급자에게 제품을 제공할 수 있다.
  • Microsoft는 2032년까지 OpenAI IP에 대한 비독점 라이선스를 유지한다.
  • Microsoft는 더 이상 OpenAI에 수익 분배를 지불하지 않지만, OpenAI는 2030년까지 Microsoft에 수익을 공유한다.
  • Microsoft는 OpenAI의 주요 주주로서 성장에 계속 참여한다.
Notable Quotes & Details
  • 2032
  • 2030

AI 산업 관계자, 투자자, 비즈니스 리더

Why supply chains are the proving ground for automation‑led iPaaS

공급망이 자동화 기반 iPaaS(통합 플랫폼 서비스)의 핵심 시험대가 되고 있으며, 이는 기존 통합 모델의 한계를 해결한다.

  • 확장되는 파트너 네트워크와 운영 변동성 증가로 인해 기존 미들웨어의 한계가 드러나고 있다.
  • 자동화 기반 iPaaS는 끊없는 변화를 흡수하도록 설계된 차세대 모델이다.
  • 2025년 약 33억 달러 규모였던 글로벌 공급망 가시성 소프트웨어 시장은 2034년까지 3배 성장할 것으로 예상된다.
  • 공급망 리더의 90% 이상이 변동성에 대응하여 운영 모델을 재정비하고 있으며, 절반 이상이 AI를 공급망 기능에 활용하고 있다.
  • 기존 통합 아키텍처는 느리고 중앙 집중적인 공급망에 적합했지만, 오늘날의 동적인 환경에는 맞지 않는다.
Notable Quotes & Details
  • $3.3 billion in 2025
  • triple by 2034
  • 90%
  • 2025 PwC survey

공급망 관리자, IT 관리자, 비즈니스 전략가

Notes: 내용이 중간에 잘려 불완전함.

RAG precision tuning can quietly cut retrieval accuracy by 40%, putting agentic pipelines at risk

RAG 임베딩 모델의 정밀도 튜닝이 검색 정확도를 최대 40%까지 저하시킬 수 있으며, 이는 에이전트 파이프라인에 위험을 초래한다.

  • Redis의 새로운 연구에 따르면, RAG 임베딩 모델의 정밀도 튜닝이 의도치 않게 검색 품질을 저하시킬 수 있다.
  • '구성적 민감도'에 대한 모델 훈련은 밀집 검색 일반화를 손상시켜, 훈련되지 않은 광범위한 주제 및 도메인에서 정확하게 검색하는 능력을 떨어뜨린다.
  • 성능은 소규모 모델에서 8~9%, 현재 프로덕션에서 사용되는 중간 규모 임베딩 모델에서는 40% 감소했다.
  • 검색 오류는 단일 단계 파이프라인에서 잘못된 답변을 초래하고, 에이전트 파이프라인에서는 잘못된 작업의 연쇄 반응을 일으킬 수 있다.
  • Redis의 AI 연구 책임자인 Srijith Rajamohan은 의미론적 검색이 항상 정확한 의도를 포착하는 것은 아니라는 일반적인 가정에 도전한다.
Notable Quotes & Details
  • 40%
  • 8 to 9 percent
  • Redis
  • Srijith Rajamohan

AI 연구자, ML 엔지니어, RAG 시스템 개발자, 데이터 과학자

Notes: 내용이 중간에 잘려 불완전함.

Google warns malicious web pages are poisoning AI agents

Google 연구원들이 악성 웹 페이지가 간접 프롬프트 주입을 통해 AI 에이전트를 조작할 수 있다고 경고했다.

  • 공용 웹 페이지는 간접 프롬프트 주입을 통해 기업 AI 에이전트를 적극적으로 하이재킹하고 있다.
  • 웹사이트 관리자와 악의적인 행위자들은 표준 HTML 내부에 숨겨진 명령을 삽입한다.
  • AI 에이전트가 페이지를 스크랩할 때 숨겨진 명령을 실행하게 된다.
  • 간접 프롬프트 주입은 악성 명령을 신뢰할 수 있는 데이터 소스 내에 배치하여 기존의 직접 주입 방어막을 우회한다.
  • 기존 사이버 방어 아키텍처는 이러한 공격을 탐지할 수 없다.
Notable Quotes & Details
  • Google researchers
  • Common Crawl repository

사이버 보안 전문가, AI 개발자, 기업 보안 관리자

Notes: 내용이 중간에 잘려 불완전함.

Meta signs a deal to beam solar energy from space to its AI data centres

Meta는 AI 데이터센터 전력 공급을 위해 우주 태양광 스타트업인 Overview Energy와 계약을 맺고 2030년까지 1기가와트의 전력을 확보할 계획이다.

  • Meta는 우주 태양광 스타트업 Overview Energy와 1기가와트 전력 공급 계약을 체결했다.
  • Overview Energy는 위성을 통해 우주에서 태양광을 수집하여 지상의 기존 태양광 시설로 근적외선 형태로 전송한다.
  • 이 기술은 야간에도 태양광 발전이 가능하게 하여 AI 데이터센터의 24시간 전력 수요를 충족시킬 수 있다.
  • 초기 궤도 시연은 2028년 1월, 상업적 전력 공급은 2030년으로 예상된다.
  • Meta의 데이터센터 전력 소비는 2024년에 18,000기가와트시를 초과했으며, AI 인프라 확대로 전력 수요가 더욱 증가할 예정이다.
Notable Quotes & Details
  • 1기가와트
  • 2030년
  • 18,000기가와트시 (2024년)
  • 30기가와트 (Meta 목표)

비즈니스 리더, AI 인프라 관련자, 에너지 산업 관계자, 일반 독자

Musk v. Altman goes to trial in Oakland

Elon Musk가 OpenAI의 영리 전환에 대해 Sam Altman과 Microsoft를 상대로 제기한 소송의 배심원 선정이 캘리포니아 오클랜드 연방 법원에서 시작되었다.

  • Elon Musk와 Sam Altman 간의 OpenAI 미래를 둘러싼 법적 분쟁이 오클랜드 연방 법원에서 재판에 돌입했다.
  • Musk는 OpenAI가 비영리 조직으로 남을 것이라는 이해 하에 공동 설립되었으나, Altman과 Brockman이 2019년 영리 구조로 전환하면서 자신을 속였다고 주장한다.
  • Musk의 소송은 자선 신탁 위반, 사기, Microsoft의 방조를 주장하며 1,500억 달러의 손해배상과 Altman의 해임, OpenAI의 비영리 전환을 요구한다.
  • 4주간 진행될 예정인 이 재판의 배심원 평결은 자문적이며, 최종 결정은 Yvonne Gonzalez Rogers 판사가 내릴 것이다.
  • OpenAI는 Musk의 주장에 반박하는 내부 문서를 통해 자신들의 입장을 제시할 예정이다.
Notable Quotes & Details
  • 1,500억 달러
  • 2024년 8월 (소송 제기)
  • 4주 (재판 기간)
  • 2015년 (OpenAI 설립)
  • 2019년 (영리 전환)

AI 업계 관계자, 법률 전문가, 비즈니스 뉴스 독자, 일반 독자

Google DeepMind to open its first AI campus in the world in Seoul

Google DeepMind가 Demis Hassabis CEO와 이재명 대통령의 만남 후 서울에 세계 최초의 AI 캠퍼스를 설립하기로 합의했으며, 올해 안에 운영을 시작할 예정이다.

  • Google DeepMind는 Demis Hassabis CEO와 이재명 대통령의 면담 후 서울에 세계 최초의 AI 캠퍼스를 개설할 예정이다.
  • 캠퍼스는 2026년 내 운영을 목표로 하며, 과학기술정보통신부와 Google 간 MOU가 체결되었다.
  • 이 MOU는 AI 연구, 기술 개발, 인력 양성, 책임감 있는 AI 활용 등을 포함한다.
  • Hassabis CEO는 한국 스타트업, 연구자, 산업계와 Google 엔지니어들을 연결하는 허브 역할을 강조하며, 10명 이상의 Google 엔지니어를 파견할 계획이다.
  • 이는 한국의 'K-문샷' 프로젝트의 일환으로, 한국이 미국, 중국과 함께 세계 3대 AI 강국으로 도약하려는 목표를 지원한다.
  • 캠퍼스 설립 장소와 시기는 2016년 알파고와 이세돌의 대국 장소였던 포시즌스 호텔 서울에서 MOU가 체결되어 상징적인 의미를 가진다.
Notable Quotes & Details
  • 2026년 (캠퍼스 운영 시작)
  • 2016년 (알파고-이세돌 대국)

AI 산업 관계자, 한국 정부 관계자, 투자자, 일반 독자

The world’s largest EV battery maker is raising $5 billion in Hong Kong

세계 최대 전기차 배터리 제조사인 CATL이 홍콩에서 50억 달러 규모의 주식 공모를 추진하고 있으며, 이는 헝가리 배터리 공장 건설 자금으로 사용될 예정이다.

  • CATL(Contemporary Amperex Technology Co. Ltd.)은 홍콩에서 최대 50억 달러 규모의 주식 공모를 통해 자금을 조달할 계획이다.
  • 이는 Kuaishou Technology의 2021년 IPO 이후 홍콩에서 가장 큰 신주 발행이 될 수 있다.
  • CATL은 2025년 5월 홍콩 증시에 2차 상장하여 46억 달러를 조달했으며, 이후 주가는 약 160% 상승했다.
  • 조달된 자금의 상당 부분은 헝가리에 건설될 73억 유로 규모의 배터리 공장 건설에 사용될 예정이다.
  • CATL은 테슬라, 스텔란티스, BMW, 폭스바겐, 샤오미, 니오 등 주요 자동차 제조사에 배터리를 공급한다.
  • 2025 회계연도 순이익은 722억 위안(106억 달러)으로 전년 대비 42.28% 증가했다.
Notable Quotes & Details
  • 50억 달러
  • HK$263 (2025년 5월 홍콩 상장가)
  • HK$701 (주가 최고점)
  • 73억 유로 (헝가리 공장 투자금)
  • 722억 위안 (2025 회계연도 순이익)
  • 42.28% (2025 회계연도 순이익 증가율)

투자자, EV 산업 관계자, 금융 시장 분석가, 일반 독자

Sereact raises $110 million Series B to build robots that simulate the consequences of their actions before they act

AI 로봇 소프트웨어 기업 Sereact가 로봇이 행동 결과를 시뮬레이션할 수 있도록 하는 AI 모델 개발 및 확장을 위해 1억 1천만 달러 규모의 시리즈 B 투자를 유치했다.

  • Sereact는 시리즈 B 라운드에서 Headline 주도 하에 1억 1천만 달러를 유치했다.
  • 투자는 핵심 AI 모델 개발과 물류, 제조, 휴머노이드 로봇 플랫폼 전반의 배포 확장에 사용될 예정이다.
  • Sereact의 기술은 컴퓨터 비전, 자연어 이해, 행동 계획을 단일 모델로 결합한 Vision Language Action Models (VLAMs)에 기반한다.
  • 이 기술은 로봇이 복잡한 프로그래밍 없이도 환경을 인식하고 명령을 해석하며 물리적 작업을 실행할 수 있게 한다.
  • 로봇이 섬세한 물체를 다룰 때 잡기 전에 잠재적 손상을 평가하는 능력이 핵심 차별점이다.
Notable Quotes & Details
  • 1억 1천만 달러
  • Series B
  • 15개월 전 2천5백만 유로 시리즈 A
  • 2021년 설립
  • 2026-04-27 (Published)

AI 산업 투자자, 로봇 공학 연구자, 기업 관계자

OpenAI could be making a phone with AI agents replacing apps

OpenAI가 미디어텍, 퀄컴, 럭스쉐어와의 협력을 통해 AI 에이전트 기반의 스마트폰을 개발할 수 있으며, 이는 앱을 대체하는 새로운 사용자 경험을 제공할 수 있다는 분석이 나왔다.

  • OpenAI가 미디어텍, 퀄컴, 럭스쉐어와 협력하여 스마트폰을 개발 중이라는 루머가 있다.
  • 이 스마트폰은 앱 대신 AI 에이전트를 통해 작업을 수행할 것으로 예상된다.
  • 자체 하드웨어 스택을 통해 OpenAI는 AI 기능을 제한 없이 활용할 수 있을 것이다.
  • OpenAI는 온디바이스 및 클라우드 모델의 조합을 사용할 계획이다.
  • 2027년 1분기까지 사양 및 부품 공급업체를 확정하고, 2028년 양산이 예상된다.
Notable Quotes & Details
  • ChatGPT 주간 사용자 10억명
  • 2026년 하반기 첫 하드웨어 제품 발표 예정
  • 2027년 1분기까지 사양 확정
  • 2028년 양산 시작

일반 소비자, AI 및 스마트폰 산업 관계자

Meta inks deal for solar power at night, beamed from space

Meta가 AI 모델 운영에 필요한 전력 확보를 위해 밤에도 태양광 발전을 이용할 수 있도록 우주에서 태양 에너지를 지상으로 빔 형태로 쏘는 기술을 개발하는 스타트업 Overview Energy와 계약을 체결했다.

  • Meta는 AI 모델의 전력 수요 증가에 대응하기 위해 Overview Energy와 계약을 맺었다.
  • Overview Energy는 우주에서 태양 에너지를 모아 근적외선으로 변환하여 지상 태양광 발전소로 빔을 쏘는 기술을 개발 중이다.
  • 이 기술은 야간에도 태양광 발전을 가능하게 하여 배터리 저장이나 다른 발전원에 대한 의존도를 줄일 수 있다.
  • 2028년 1월 저궤도 위성 발사를 통해 우주에서 지상으로의 첫 전력 전송을 계획하고 있다.
  • Meta는 Overview와의 첫 용량 예약 계약을 통해 최대 1기가와트의 전력을 공급받을 예정이다.
Notable Quotes & Details
  • 2024년 Meta 데이터 센터 전력 사용량 18,000기가와트시
  • 30기가와트 재생 에너지원 구축 목표
  • Overview Energy 4년 된 스타트업
  • 2028년 1월 위성 발사 계획
  • 최대 1기가와트 전력

AI 산업 관계자, 에너지 산업 관계자, 투자자, 일반 독자

Canva apologizes after its AI tool replaces ‘Palestine’ in designs

디자인 플랫폼 Canva의 AI 도구인 'Magic Layers'가 사용자 디자인에서 'Palestine'이라는 단어를 'Ukraine'으로 자동 대체하는 오류가 발생하여 Canva가 사과하고 문제를 해결했다.

  • Canva의 AI 기능 'Magic Layers'에서 'Palestine'이라는 단어가 'Ukraine'으로 자동 변경되는 오류가 발생했다.
  • 이 문제는 'Gaza'와 같은 관련 단어에는 영향을 미치지 않았다.
  • Canva는 문제를 인지하고 신속하게 조사 및 해결했으며, 재발 방지를 위한 추가 조치를 취하고 있다고 밝혔다.
  • 이번 오류는 Canva가 Adobe의 AI 기반 디자인 도구들과 경쟁하려는 상황에서 발생했다.
  • 'Magic Layers'는 Canva의 AI 전면 개편의 주요 구성 요소이다.
Notable Quotes & Details
  • 2026-04-27 (Published)

디자인 도구 사용자, AI 윤리 연구자, 일반 독자

The AI-designed car is taking shape

자동차 제조사들이 AI를 활용하여 신차 디자인 및 개발 기간을 단축하고 있으며, 특히 GM이 Vizcom과 같은 AI 도구를 디자인 단계에 도입하여 효율성을 높이고 있다는 내용입니다.

  • AI가 자동차 산업의 디자인 및 개발 과정을 혁신하여 소요 시간을 크게 줄이고 있음.
  • GM은 디자이너의 스케치를 AI 도구 Vizcom에 입력하여 디자인을 더 빠르게 시각화하고 있음.
  • 현재의 글로벌 무역 전쟁과 불확실한 수요 속에서 AI 도입이 더욱 가속화되고 있음.
  • 기존 5년 이상 걸리던 개발 기간이 AI를 통해 단축될 가능성.
Notable Quotes & Details
  • "That means many new cars hitting dealerships this summer were first sketched in 2020 or 2021"
  • "60-month new car design and development window"
  • "Dan Shapiro, creative designer at General Motors"

자동차 산업 관계자, AI 기술 도입에 관심 있는 기업가, 일반 독자

Meta AI Releases Sapiens2: A High-Resolution Human-Centric Vision Model for Pose, Segmentation, Normals, Pointmap, and Albedo

Meta AI가 인간 중심 컴퓨터 비전을 위한 차세대 기반 모델인 Sapiens2를 발표했으며, 이 모델은 10억 개의 인간 이미지 데이터셋으로 훈련되어 포즈, 분할, 노멀, 포인트맵, 알베도 등 여러 벤치마크에서 이전 모델보다 크게 향상된 성능을 보여줍니다.

  • Meta AI가 Sapiens2라는 인간 중심 컴퓨터 비전 모델의 2세대를 출시.
  • 10억 개의 인간 이미지로 구성된 새로운 데이터셋으로 훈련되었으며, 0.4B에서 5B 매개변수 모델 크기를 가짐.
  • 1K 기본 해상도와 4K를 지원하는 계층적 변형을 제공.
  • 기존 Sapiens 모델의 MAE(Masked Autoencoder) 방식의 한계를 극복하기 위해, 의미론적 학습을 강화하는 DINO 및 SimCLR와 같은 대조 학습(CL) 방식을 통합.
  • Sapiens2는 포즈, 분할, 노멀, 포인트맵, 알베도와 같은 복잡한 인간 중심 시각 작업에서 크게 개선된 성능을 보임.
Notable Quotes & Details
  • "1 billion human images"
  • "0.4B to 5B parameters"
  • "native 1K resolution with hierarchical variants supporting 4K"
  • "https://arxiv.org/pdf/2604.21681"

AI 연구자, 컴퓨터 비전 개발자, 기계 학습 엔지니어

The LoRA Assumption That Breaks in Production

LoRA(Low-Rank Adaptation)가 대규모 모델 미세 조정을 효율적으로 수행하지만, 모든 업데이트가 유사하다는 가정이 실제 적용 시 문제가 될 수 있음을 지적하며, RS-LoRA가 이러한 문제를 해결하여 높은 랭크에서도 안정적인 학습을 가능하게 한다고 설명합니다.

  • LoRA는 효율적인 모델 미세 조정을 가능하게 하지만, 업데이트의 유사성에 대한 가정이 실제 환경에서 문제가 발생할 수 있음.
  • 스타일 미세 조정에는 효과적이나, 새로운 사실적 지식 학습 시에는 낮은 랭크(예: rank-8)가 모든 정보를 포착하지 못해 부정확한 결과를 초래할 수 있음.
  • 랭크를 높이면 표준 LoRA의 스케일링으로 인해 학습 신호가 약화되어 불안정해지는 문제 발생.
  • RS-LoRA는 스케일링 공식 (r을 √r로 나눔)을 조정하여 높은 랭크에서도 안정적인 학습을 가능하게 함.
  • NumPy를 사용한 시뮬레이션으로 이러한 문제와 RS-LoRA의 해결책을 입증.
Notable Quotes & Details
  • "rank-8"
  • "r → √r" (RS-LoRA의 스케일링 공식 변화)

AI 연구자, 기계 학습 엔지니어, LoRA를 사용하는 개발자

How to Build a Fully Searchable AI Knowledge Base with OpenKB, OpenRouter, and Llama

OpenKB, OpenRouter, Llama를 활용하여 로컬에서 완전 검색 가능한 AI 지식 기반을 구축하고 쿼리하는 방법을 안내하는 튜토리얼입니다.

  • OpenKB, OpenRouter, Llama를 사용하여 로컬 지식 기반을 구축하는 방법을 설명하는 튜토리얼.
  • getpass를 이용한 API 키 보안 설정 및 환경 변수를 통한 보안 유지.
  • 구조화된 위키 스타일 지식 기반 초기화 및 소스 문서 추가, 요약, 개념 페이지 생성.
  • 결과 위키 구조 검사, 쿼리 실행, 탐색 내용 저장 기능 제공.
  • Raw Markdown 문서를 상호 작용 가능한 합성 지식 시스템으로 변환하고 점진적 업데이트 지원.
Notable Quotes & Details
  • "Provider : OpenRouter (https://openrouter.ai)"
  • "Model : meta-llama/llama-3.3-70b-instruct:free"

개발자, AI 엔지니어, 지식 관리 시스템 구축에 관심 있는 사용자

Notes: 튜토리얼 형식의 기술 문서

10 Python Libraries for Building LLM Applications

LLM 애플리케이션 개발을 위한 10가지 파이썬 라이브러리를 소개하며, 오픈소스 모델 로드, RAG 파이프라인 구축, 모델 서빙, 미세 조정, 에이전트 기반 워크플로우 생성 및 평가를 돕는다.

  • LLM 애플리케이션 개발은 소비자용 도구 사용과 다르며, 백그라운드에서 더 많은 제어가 필요하다.
  • 오픈소스 모델 로드, RAG 파이프라인 구축, 모델 서빙, 미세 조정, 에이전트 기반 워크플로우 생성 및 평가를 돕는 라이브러리가 중요하다.
  • 「Transformers」는 오픈소스 LLM 작업의 핵심 라이브러리로, 모델 로드, 텍스트 토큰화, 생성 실행, 미세 조정을 위한 일관된 인터페이스를 제공한다.
  • LLM 개발은 단순히 모델에 프롬프트를 제공하는 것을 넘어 복잡한 구성 요소를 통합하는 것이다.
  • 소개된 라이브러리들은 로컬 모델 실험, 프로덕션 파이프라인 구축, 다중 에이전트 시스템 테스트에 유용하다.
Notable Quotes & Details

AI 개발자, LLM 연구자, 데이터 과학자

An Artifact-based Agent Framework for Adaptive and Reproducible Medical Image Processing

의료 영상 연구에서 적응성과 재현성을 보장하기 위한 아티팩트 기반 에이전트 프레임워크를 제안하며, 데이터셋에 따른 워크플로우 구성 및 출처 추적의 중요성을 강조한다.

  • 의료 영상 연구는 통제된 벤치마크 평가에서 실제 임상 배포로 전환되고 있다.
  • 워크플로우 구성의 「적응성」과 모든 변환 및 결정이 기록되고 재실행 가능한 「재현성」이 핵심 요구사항이다.
  • 제안된 아티팩트 기반 에이전트 프레임워크는 의료 영상 처리를 위한 의미론적 계층을 도입한다.
  • 이 프레임워크는 아티팩트 계약을 통해 중간 및 최종 출력을 공식화하고, 모듈식 규칙 라이브러리에서 구성 요소를 조립한다.
  • 실제 임상 CT 및 MRI 코호트에서 프레임워크를 평가한 결과, 적응형 구성 합성 및 결정론적 재현성을 입증했다.
Notable Quotes & Details
  • arXiv:2604.21936v1

의료 영상 연구자, AI 연구자, 컴퓨터 비전 엔지니어

Read the Paper, Write the Code: Agentic Reproduction of Social-Science Results

LLM 에이전트가 사회 과학 논문의 방법론 설명과 원본 데이터만으로 연구 결과를 재현할 수 있는지 탐구하며, 에이전트 기반 재현 시스템의 개발과 평가 결과를 제시한다.

  • 기존 연구는 데이터와 코드 접근을 통해 LLM 에이전트가 사회 과학 결과를 재현하는 데 중점을 두었다.
  • 이 연구는 논문의 방법론 설명과 원본 데이터만으로 결과를 재현하는 에이전트의 능력을 확장한다.
  • 개발된 에이전트 기반 재현 시스템은 논문에서 구조화된 방법론 설명을 추출하고, 원본 코드, 결과 또는 논문을 보지 않고 재구현을 실행한다.
  • 4개의 에이전트 스캐폴드와 4개의 LLM을 사용하여 48개 논문을 평가한 결과, 에이전트가 대부분의 게시된 결과를 재현할 수 있음을 발견했다.
  • 실패의 근본 원인은 에이전트 오류와 논문의 불충분한 명세에서 비롯된다.
Notable Quotes & Details
  • arXiv:2604.21965v1
  • 48 papers

사회 과학 연구자, LLM 연구자, 재현성 연구자

Rethinking Publication: A Certification Framework for AI-Enabled Research

AI 기반 연구의 증가에 맞춰, 인간 저작권에 대한 기존 출판 시스템의 한계를 지적하고 AI 생성 연구를 평가하기 위한 2계층 인증 프레임워크를 제안한다.

  • AI 연구 파이프라인이 학술 출판물의 상당 부분을 생성하고 있지만, 기존 출판 시스템은 인간 저작권을 전제로 하여 한계가 있다.
  • 제안된 2계층 인증 프레임워크는 지식 품질 평가와 인간 기여도 등급을 분리하여 새로운 기관 없이 파이프라인 생성 작업을 일관되게 처리한다.
  • 기여도는 파이프라인 도달 가능성(Category A), 인간 지시 필요(Category B), 현재 파이프라인 한계 초과(Category C)로 분류된다.
  • 완전 공개된 자동화 연구를 위한 벤치마크 슬롯을 도입하여 투명한 출판 트랙과 검토자 판단을 위한 보정 도구로 활용한다.
  • 드라이런 검증 결과, 이 프레임워크는 귀속 불확실성을 허용하면서 지식을 적절하게 인증할 수 있음을 보여준다.
Notable Quotes & Details
  • arXiv:2604.22026v1
  • Category A
  • Category B
  • Category C

AI 연구자, 학술 출판 관계자, 정책 입안자

Sound Agentic Science Requires Adversarial Experiments

LLM 기반 에이전트를 활용한 과학적 데이터 분석에서 발견 가속화의 이면에는 검증되지 않은 가설 생성이 증가할 위험이 있음을 지적하며, 이에 대한 해결책으로 반증 중심의 실험 평가를 제안한다.

  • LLM 기반 에이전트의 과학 데이터 분석 활용이 증가하고 있다.
  • 에이전트 사용은 발견을 가속하지만, 동시에 검증되지 않은 주장을 빠르게 생성하는 문제를 야기할 수 있다.
  • 과학적 지식은 코드의 반복적 축적이나 사후 통계적 지원으로 검증되지 않는다.
  • 에이전트 생성 주장은 반증 중심(falsification-first) 표준으로 평가되어야 한다.
  • 에이전트는 설득력 있는 서사를 만드는 것보다 주장의 실패 가능성을 적극적으로 탐색하는 데 사용되어야 한다.
Notable Quotes & Details

AI 연구자, 과학자, LLM 개발자

Memanto: Typed Semantic Memory with Information-Theoretic Retrieval for Long-Horizon Agents

에이전트형 AI 시스템의 메모리 병목 현상 해결을 위해 지식 그래프의 복잡성 없이 높은 충실도를 달성하는 새로운 범용 메모리 계층 'Memanto'를 제안한다.

  • 에이전트형 AI 시스템에서 메모리(기억)는 주요 아키텍처 병목 현상이다.
  • 기존 방식은 계산 오버헤드가 큰 하이브리드 의미론적 그래프 아키텍처에 의존한다.
  • Memanto는 13가지 사전 정의된 메모리 범주, 자동 충돌 해결, 시간 버전 관리를 통합한 typed semantic memory schema를 제공한다.
  • Moorcheh의 정보 이론적 검색 엔진을 사용하여 90밀리초 미만의 지연 시간으로 결정론적 검색을 제공하며 수집 지연이 없다.
  • LongMemEval 및 LoCoMo 평가에서 각각 89.8%, 87.1%의 최첨단 정확도를 달성했다.
Notable Quotes & Details
  • 89.8 percent
  • 87.1 percent
  • sub ninety millisecond latency

AI 연구자, 에이전트 시스템 개발자, LLM 연구자

Focus Session: Hardware and Software Techniques for Accelerating Multimodal Foundation Models

멀티모달 파운데이션 모델(MFM)의 효율적인 가속을 위한 하드웨어-소프트웨어 공동 설계 및 최적화 파이프라인을 포함하는 다계층 방법론을 제시한다.

  • MFM 가속화를 위한 하드웨어-소프트웨어 공동 설계 및 최적화 파이프라인 방법론을 제시한다.
  • 모델 개발 단계에서 도메인 특화 적응을 위한 미세 조정을 통한 성능 향상을 활용한다.
  • 계층 인식 혼합 정밀 양자화 및 구조적 가지치기를 사용하여 MFM 압축을 수행한다.
  • 추측성 디코딩, 모델 캐스케이딩, 시퀀스 길이, 시각적 해상도 및 스트라이드 공동 최적화를 통해 작업을 최적화한다.
  • 트랜스포머 워크로드를 위한 특수 하드웨어 가속기를 사용하여 효율적인 모델 실행을 지원한다.
Notable Quotes & Details

AI 연구자, 하드웨어 엔지니어, 딥러닝 시스템 개발자

Performance Anomaly Detection in Athletics: A Benchmarking System with Visual Analytics

육상 경기에서 약물 검사 한계를 보완하기 위해 1.6백만 건의 경기 기록을 분석하여 의심스러운 경기 패턴을 식별하는 성능 이상 감지 시스템을 제안한다.

  • 약물 검사의 높은 비용($800/샘플)과 짧은 감지 기간으로 인해 보완적인 스크리닝 접근법이 필요하다.
  • 2010년에서 2025년까지 19,000개 이상의 경기에서 1.6백만 건의 육상 경기 기록을 처리하는 시스템을 개발했다.
  • 통계 규칙부터 기계 학습 및 궤적 분석에 이르는 8가지 감지 방법을 사용한다.
  • 궤적 기반 방법이 위반 감지 및 오탐 제한 간에 가장 좋은 균형을 이룬다.
  • 시스템은 전문가 주도 조사를 위한 대화형 인터페이스를 제공하여 투명성과 인간의 판단을 강조한다.
Notable Quotes & Details
  • $800 per sample
  • 1.6 million athletics performances
  • 19,000 competitions
  • 2010-2025

스포츠 과학자, 반도핑 기관, 데이터 분석가

Conditional anomaly detection using soft harmonic functions: An application to clinical alerting

조건부 이상 탐지를 위한 새로운 비모수적 접근 방식인 소프트 하모닉 솔루션을 제안하며, 임상 실무에서 데이터 인스턴스의 비정상적인 반응을 식별하는 데 사용된다.

  • 임상 실무에서 중요한 이벤트의 시기 적절한 탐지는 중요한 문제이다.
  • 조건부 이상 탐지는 특이한 반응을 보이는 데이터 인스턴스를 식별하는 것을 목표로 한다.
  • 소프트 하모닉 솔루션 기반의 새로운 비모수적 접근 방식을 개발하여 레이블의 신뢰도를 추정하고 비정상적인 오분류를 탐지한다.
  • 고립된 사례 및 분포 지지 경계의 사례 탐지를 피하기 위해 솔루션을 추가적으로 정규화한다.
  • 실제 전자 건강 기록 데이터셋에서 제안된 방법의 효능을 입증했다.
Notable Quotes & Details

AI 연구자, 의료 정보학 연구자

Mochi: Aligning Pre-training and Inference for Efficient Graph Foundation Models via Meta-Learning

메타 학습 기반 훈련 프레임워크를 채택하여 작업 통합 및 훈련 효율성을 해결하는 그래프 파운데이션 모델 Mochi를 제안한다.

  • 기존 모델은 재구성 기반 목표로 사전 훈련되어 다운스트림 작업과 정렬하는 데 한계가 있었다.
  • Mochi는 다운스트림 평가 프로토콜을 반영하는 few-shot 에피소드로 사전 훈련하여 훈련 목표와 추론을 정렬한다.
  • Mochi 및 Mochi++는 25개 실제 그래프 데이터셋에서 노드 분류, 링크 예측, 그래프 분류 전반에 걸쳐 경쟁력 있는 성능을 달성한다.
  • 가장 강력한 베이스라인 대비 8~27배 적은 훈련 시간을 필요로 한다.
Notable Quotes & Details
  • 8~27 times less training time

AI 연구자, 그래프 신경망 연구자

LTBs-KAN: Linear-Time B-splines Kolmogorov-Arnold Networks

B-스플라인 함수의 계산 속도 문제를 해결하고 선형 시간 복잡성을 갖는 Linear-Time B-splines Kolmogorov-Arnold Network (LTBs-KAN)를 제안한다.

  • KANs는 MLPs에 대한 대안으로 설명 가능성과 표현력이 향상되었지만, B-스플라인 계산으로 인해 속도가 느렸다.
  • LTBs-KAN은 선형 복잡도를 가지며 계산 부담을 크게 줄인다.
  • forward pass에서 product-of-sums 행렬 분해를 통해 모델 파라미터를 추가로 줄인다.
  • MNIST, Fashion-MNIST 및 CIFAR-10 실험에서 다른 KAN 구현에 비해 좋은 시간 복잡성과 파라미터 감소를 보여준다.
Notable Quotes & Details

AI 연구자, 신경망 아키텍처 연구자

When Cow Urine Cures Constipation on YouTube: Limits of LLMs in Detecting Culture-specific Health Misinformation

문화별 건강 오정보 감지에서 LLM의 한계를 탐구하며, 특히 인도 유튜브에서 고무트라(소변) 담론을 사례 연구로 사용하여 문화적으로 내재된 오정보가 LLM에게 분석하기 어렵다는 것을 보여준다.

  • 소셜 미디어는 글로벌 사우스에서 건강 정보의 주요 채널이다.
  • 인도 유튜브의 고무트라 담론은 프로모션 콘텐츠가 신성한 전통 언어와 유사 과학적 주장을 혼합하여 LLM이 분석하기 어려운 수사적 레지스터를 생성한다.
  • GPT-4o, Gemini 2.5 Pro, DeepSeek-V3.1을 포함한 세 가지 LLM을 대상으로 프롬프트 톤을 다양화한 결과, 문화적으로 내재된 건강 오정보는 일반적인 오정보와 다르게 보이며, 문화적 모호성이 성별 수사 및 프롬프트 디자인으로 확장되어 분석 신뢰도를 저해한다.
  • LLM 기반 담론 분석에서 문화적 역량은 프롬프트 엔지니어링만으로는 후천적으로 얻을 수 없다고 주장한다.
Notable Quotes & Details
  • GPT-4o
  • Gemini 2.5 Pro
  • DeepSeek-V3.1
  • 30 multilingual transcripts

AI 연구자, 사회학 연구자, LLM 개발자

Shared Lexical Task Representations Explain Behavioral Variability In LLMs

LLM의 프롬프트 민감성(prompt sensitivity) 현상이 공유된 어휘적 작업 표현을 통해 설명될 수 있음을 제시하는 연구.

  • LLM의 프롬프트 민감성은 모델 성능이 질문 방식에 따라 예측 불가능하게 달라지는 현상이다.
  • 명령어 기반 프롬프트와 예시 기반 프롬프트 간의 성능 차이에도 불구하고, 모델은 작업 전반에 걸쳐 공통된 내부 메커니즘을 사용한다.
  • '어휘적 작업 헤드(lexical task heads)'라는 작업별 어텐션 헤드가 식별되었으며, 이는 프롬프트 스타일에 관계없이 공유되어 답변 생성에 기여한다.
  • 프롬프트 간 행동 변화는 이 헤드들의 활성화 정도에 의해 설명될 수 있으며, 실패는 경쟁하는 작업 표현으로 인해 발생할 수 있다.
Notable Quotes & Details

AI 연구자, LLM 개발자

Source-Modality Monitoring in Vision-Language Models

시각-언어 모델(VLMs)의 소스-모달리티 모니터링 능력, 즉 정보가 어떤 입력 소스에서 유래했는지 추적하고 전달하는 능력을 조사한 연구.

  • 소스-모달리티 모니터링은 멀티모달 모델이 정보의 출처를 추적하는 능력이다.
  • 모델은 입력 소스를 바인딩하기 위해 구문적(syntactic) 및 의미적(semantic) 신호를 활용한다.
  • 11개 VLM에 대한 실험 결과, 두 가지 신호 모두 중요하며, 특히 모달리티 분포가 크게 다를 때 의미적 신호의 중요성이 더 커진다.
  • 이 결과는 모델 견고성 및 멀티모달 에이전트 시스템에 대한 함의를 제공한다.
Notable Quotes & Details
  • 11 Vision-Language Models (VLMs)

AI 연구자, 멀티모달 모델 개발자

Lightweight Retrieval-Augmented Generation and Large Language Model-Based Modeling for Scalable Patient-Trial Matching

확장 가능한 환자-임상시험 매칭을 위한 경량 검색 증강 생성 및 LLM 기반 모델링 프레임워크를 제안하는 연구.

  • 환자-임상시험 매칭은 긴 EHR(전자 건강 기록)과 복잡한 자격 기준으로 인해 확장성 및 효율성 문제가 있다.
  • 기존 LLM 기반 접근 방식은 비용이 많이 들고, 전통적인 머신러닝은 비정형 임상 서술을 처리하기 어렵다.
  • 제안된 프레임워크는 검색 증강 생성을 통해 관련 EHR 세그먼트를 식별하고, LLM을 사용하여 이를 정보성 표현으로 인코딩한다.
  • 이 경량 파이프라인은 계산 비용을 크게 줄이면서도 기존 LLM 접근 방식과 유사한 성능을 달성한다.
  • 여러 공개 벤치마크(n2c2, SIGIR, TREC 2021/2022) 및 Mayo Clinic 데이터셋(MCPMD)에서 평가되었다.
Notable Quotes & Details
  • Benchmarks: n2c2, SIGIR, TREC 2021/2022
  • Dataset: Mayo Clinic (MCPMD)

의료 AI 연구자, 임상 정보학 전문가

Incentivizing Neuro-symbolic Language-based Reasoning in VLMs via Reinforcement Learning

강화 학습을 통해 시각-언어 모델(VLMs)에서 신경-기호 언어 기반 추론을 장려하고 분석적 추론 능력과 효율성을 향상시키는 연구.

  • 2016년 영화 <컨택트>(Arrival)에서 영감을 받아, 신경-기호 언어에서의 시각-언어 개념 표현 및 추론을 탐구한다.
  • Qwen3-VL-2B-Instruct 모델을 기반으로 4개의 Nvidia H200 GPU 노드를 사용하여 실험을 진행했다.
  • 수학, 과학, 일반 지식 질문으로 구성된 시각-언어 평가 데이터셋에서 3.33%의 정확도 향상을 달성했다.
  • SymPy에 비해 추론 토큰을 75% 감소시켰다.
  • compute challenges, scaling possibilities, future work가 문서화되어 있으며, 훈련 및 추론 설정은 GitHub에서 확인할 수 있다.
Notable Quotes & Details
  • 7,407 languages in the world
  • 2016 movie Arrival
  • Qwen3-VL-2B-Instruct
  • 4 × Nvidia H200 GPU nodes
  • accuracy improvement of 3.33%
  • reducing the reasoning tokens by 75% over SymPy
  • GitHub: https://github.com/i-like-bfs-and-dfs/wolfram-reasoning

AI 연구자, VLM 개발자, 언어학 및 인지과학 분야 연구자

How to build scalable web apps with OpenAI's Privacy Filter

OpenAI의 Privacy Filter는 민감한 개인 식별 정보(PII)를 탐지하고 가려내는 오픈소스 도구이며, 이를 활용한 세 가지 웹 애플리케이션(문서 탐색기, 이미지 익명화 도구, 스마트 리다이렉트 도구)을 소개한다.

  • OpenAI가 공개한 Privacy Filter는 128k 컨텍스트에서 8가지 PII 카테고리를 탐지하는 오픈소스 PII 탐지기이다.
  • Gradio.Server를 기반으로 구축된 세 가지 애플리케이션(Document Privacy Explorer, Image Anonymizer, SmartRedact Paste)을 통해 활용 사례를 보여준다.
  • Privacy Filter는 1.5B 파라미터 모델이며 Apache 2.0 라이선스로 제공된다.
  • PII-Masking-300k 벤치마크에서 SOTA 성능을 달성했다.
Notable Quotes & Details
  • 1.5B-parameter model
  • 50M active parameters
  • Apache 2.0
  • PII-Masking-300k benchmark
  • 128,000 tokens
  • 74.9%
  • 80.9%

개발자, AI 연구자, 개인 정보 보호에 관심 있는 사용자

SWE-bench Verified가 더 이상 프런티어 코딩 역량을 측정하지 못하는 이유

자율 소프트웨어 엔지니어링 작업의 표준 지표였던 SWE-bench Verified가 테스트 설계 결함과 학습 데이터 오염으로 인해 프런티어 AI 모델의 코딩 역량을 측정하는 데 부적합하다는 분석이 제기되었으며, OpenAI는 해당 벤치마크의 점수 보고를 중단할 것을 권고했다.

  • SWE-bench Verified는 테스트 설계 결함(138개 문제 중 59.4%에서 중대한 결함 확인)과 학습 데이터 오염 문제로 인해 모델 역량 측정 지표로서 적합성이 떨어졌다.
  • 제한적인 테스트 케이스는 기능적으로 올바른 해법도 탈락시키고, 광범위한 테스트 케이스는 문제 설명에 없는 추가 기능을 요구한다.
  • OpenAI는 SWE-bench Verified 점수 보고 중단을 권고하고, 오염이 덜한 SWE-bench Pro 또는 비공개 벤치마크 사용을 대안으로 제시했다.
  • 원본 SWE-bench는 2023년 공개되었으며, 2024년 SWE-bench Verified로 개선되었으나 여전히 문제점이 발견되었다.
Notable Quotes & Details
  • 74.9%
  • 80.9%
  • 138개 문제
  • 59.4%
  • 35.5%
  • 18.8%
  • 5.1%
  • 2023년
  • 2024년
  • 1,699개 문제
  • 500개 문제 세트

AI 연구자, 소프트웨어 엔지니어, 벤치마크 개발자

Show GN: slaude - 흔적 안 남기는 일회용 Claude Code

임시 환경에서 Claude Code 사용 시 OAuth 토큰이나 대화 로그 등의 흔적이 남는 문제를 해결하기 위해, 사용자의 흔적을 남기지 않고 일회용으로 Claude Code를 실행하는 부트스트랩 스크립트 'slaude'가 개발되었다.

  • 'slaude'는 'stealth + claude'의 합성어로, 신뢰할 수 없는 환경에서 Claude Code 사용 시 발생하는 흔적(OAuth 토큰, 세션 캐시, 대화 로그) 문제를 해결하기 위해 고안되었다.
  • 이 스크립트는 /dev/shm에 일회용 디렉토리를 만들고 그 안에서 Claude Code 공식 인스톨러를 실행하여 모든 캐시와 로그가 RAM tmpfs 내에서만 존재하도록 한다.
  • 종료 시 trap과 백그라운드 watchdog을 통해 정리를 처리하며, tmpfs 특성상 다음 부팅 시 모든 흔적이 사라진다.
  • kernel + bash + curl + util-linux만 있으면 동작하며, Docker, Podman, Node, npm, bwrap 등 추가 의존성이 필요 없다.
Notable Quotes & Details

Claude Code 사용자, 개발자, 보안에 관심 있는 사용자

Mixture of Experts(MoE)란 무엇인가 — DeepSeek이 왜 1.6조 파라미터인데 싸게 돌아가는지

DeepSeek V4가 1.6조 파라미터 모델임에도 저렴한 비용으로 서비스될 수 있는 이유를 Mixture of Experts (MoE) 아키텍처를 통해 설명하며, MoE가 AI 모델 경쟁의 표준 아키텍처로 자리 잡았음을 강조한다.

  • MoE는 여러 전문가 서브모델과 라우터로 구성되며, 매 토큰마다 전체 파라미터 중 일부만 선택적으로 활성화하여 비용 효율성을 높인다.
  • DeepSeek V4-Pro는 1.6조 파라미터 중 토큰당 약 3%인 490억 파라미터만 활성화되어, 1.6조 규모의 지식을 담으면서 490억 수준의 추론 비용을 갖는다.
  • MoE는 같은 규모의 밀집 모델 대비 가격 대비 성능을 3~5배 개선할 수 있지만, 높은 VRAM 요구량과 학습 시 특정 전문가에게 부하가 집중되는 불균형 문제를 관리해야 하는 단점이 있다.
  • GPT-4, Gemini 1.5, Mixtral, DeepSeek 시리즈 등 주요 프런티어 모델 대부분이 MoE 기반이다.
Notable Quotes & Details
  • 1.6조 파라미터
  • GPT-5.5의 10분의 1 가격
  • 490억(약 3%)
  • 3~5배
  • 2026년

AI 연구자, AI 모델 개발자, 인공지능 기술에 관심 있는 일반인

Statecharts: 계층적 상태 기계

복잡한 시스템의 행동을 시각적으로 구조화하고 상태 폭발 문제를 다루기 위해 기본 상태 머신을 확장한 Statecharts에 대한 개념과 활용, 장단점을 설명하는 글입니다.

  • Statecharts는 복잡한 시스템의 행동을 시각적으로 구조화하는 형식으로, 기본 상태 머신의 상태 폭발 문제를 보강합니다.
  • 행동과 컴포넌트의 분리가 가능해 동작 변경과 코드 추론이 쉬워지며, 컴포넌트와 독립적인 테스트 및 예외 상황 탐색에 용이합니다.
  • Statechart 기반 코드는 전통적인 코드보다 버그 수가 더 낮다는 연구 결과가 있으며, 개발자가 아닌 사람도 이해하기 쉽고 QA 도구로 활용할 수 있습니다.
  • SCXML 표준과 여러 언어의 도구 및 라이브러리를 통해 모델을 읽고, 작성하고, 실행할 수 있습니다.
  • 새로운 학습 비용, 기존 코딩 방식과의 차이로 인한 낯선 패러다임, 작은 Statechart에서 코드 줄 수 증가, 웹 애플리케이션 로드 시간 증가 등의 단점이 있습니다.
Notable Quotes & Details
  • SCXML은 2005년부터 2015년까지 W3C에서 표준화한 형식

소프트웨어 엔지니어, 개발자, 시스템 설계자

Show GN: ManyPerson - 통계청 MDIS 기반 한국 AI 페르소나 여론 시뮬레이터

통계청 MDIS 데이터를 기반으로 한국 사회의 다양한 인구통계학적 특성을 반영한 AI 페르소나를 생성하여 여론을 시뮬레이션하는 서비스 'ManyPerson'을 소개합니다.

  • 통계청 MDIS 마이크로데이터를 활용하여 한국 사회의 인구통계, 가구 형태, 소득, 자산, 부채, 직업군 분포를 반영한 AI 페르소나를 생성합니다.
  • 사용자의 질문에 대해 조건에 맞는 AI 시민들을 선택하여 응답을 생성하고, 결과를 연령대, 성별, 소득분위, 직업군 등으로 분석합니다.
  • Gemini를 활용해 통계청 코드만으로는 부족한 직업명, 성격, 취미, 고향, 1인칭 자기소개 등을 생성하되, 연소득·자산·부채와 직업·서사의 모순을 보정합니다.
  • 단순히 LLM에 질문하는 방식이 아닌, 실제 분포 기반 페르소나들이 각자 다른 배경과 말투로 답변하고 통계 가중치를 적용해 결과를 집계하여 여론 다양성을 반영합니다.
  • 집단별 차이가 중요한 여론, 정책, 상품 반응 질문에서 '누가 왜 다르게 생각하는가'를 파악하는 데 중점을 둡니다.
Notable Quotes & Details
  • 2025년 가계금융복지조사 MDIS 원시 CSV를 기반
  • 서비스용 한국 페르소나 약 4.1만 명 구성

데이터 분석가, 정책 입안자, 시장 조사 전문가, AI 개발자

How do you test AI agents in production? The unpredictability is overwhelming.[D]

LLM 기반 AI 에이전트의 비결정적 특성으로 인해 프로덕션 환경에서 AI 에이전트를 테스트하는 데 따르는 어려움과 기존 QA 방식의 한계를 토로하는 내용입니다.

  • 기존 QA의 '입력 X, 출력 Y'라는 정신 모델이 LLM 기반 AI 에이전트의 비결정적 출력(동일 입력에도 다른 추론 과정) 때문에 적용하기 어렵습니다.
  • 스냅샷 테스트는 너무 취약하고, 정규식/키워드 매칭은 추론 오류를 놓칠 수 있으며, 사람 평가는 자동화 및 확장이 어렵습니다.
  • 통합 테스트와 유사하게 추론 단계별 검증을 원하지만, 예상 출력을 하드코딩하거나 다른 LLM을 심판으로 사용하는 것 모두 새로운 실패 모드를 도입할 수 있습니다.
  • 실제 사용과 심각한 결과를 초래할 수 있는 프로덕션 환경에서 에이전트의 추론을 검증할 프레임워크의 필요성을 강조합니다.
Notable Quotes & Details
  • QA 경력 10년

AI 개발자, QA 엔지니어, 머신러닝 연구자

Notes: 개인적인 경험과 어려움을 공유하는 Reddit 게시물

Maths vs machine learning publishing venues [D]

수학 연구자가 자신이 작성한 이론 컴퓨터 과학 논문을 기계 학습 분야 저널에 투고하려 할 때, 어떤 저널이 적합한지에 대해 조언을 구하는 내용입니다.

  • 연구 수학자가 작성한 이론 컴퓨터 과학 논문이 수학자보다 기계 학습 연구자에게 더 흥미로울 것으로 판단하고 있습니다.
  • 컨퍼런스 문화에 참여하고 싶지 않아 저널 투고를 선호하며, 특히 'Transactions of the AMS'와 같은 수학 저널에 해당하는 기계 학습 또는 컴퓨터 과학 저널을 찾고 있습니다.
  • 논문 길이가 60페이지로 길다는 점을 언급하며 적합한 투고처를 모색하고 있습니다.
Notable Quotes & Details
  • 논문 길이: 60페이지

수학 연구자, 머신러닝 연구자, 이론 컴퓨터 과학 연구자

Notes: 개인적인 질문과 조언을 구하는 Reddit 게시물

freshman in ML: how do you identify actually open research problems? [D]

머신러닝 연구에 입문하는 신입생이 실제로 개방된 연구 문제를 식별하는 데 겪는 어려움에 대한 논의.

  • 연구 신입생이 '해결된 것처럼 보이는' 문제와 '막연한' 문제 사이에서 실제 개방된 연구 문제를 찾기 어려워함.
  • 이미 해결된 아이디어(PQCache, async KVCache prefetching 등)와 필요한 장비 부족 문제에 대한 우려.
  • LLM을 활용한 웹 검색이 개방된 문제 식별에 도움이 될 수 있음을 언급.
  • AI-for-science 이니셔티브를 가속화하고 비용을 절감하려는 동기.
Notable Quotes & Details

머신러닝 연구자, ML 분야 신입생

Value of top conference workshop papers for PhD admissios [D]

ML 분야 박사 과정 입학에 있어 상위 학회 워크숍 논문의 가치에 대한 질의.

  • 학부생이 상위 학회(Neurips/CVPR, ICLR 등) 워크숍 논문을 주저자로 발표하는 것이 박사 과정 입학에 미치는 영향.
  • 주 컨퍼런스 논문이 더 가치 있다는 전제 하에 워크숍 논문을 추가로 제출할 필요성에 대한 질문.
Notable Quotes & Details

ML 박사 과정 지원자, 연구를 하는 학부생

I recently tested Gemma 4-31B locally and I was blown away with the intelligence/size ratio of this model. These papers show how they achieved such distillation capabilities.[R]

Gemma 4-31B 모델의 지능-크기 비율 및 증류(distillation) 기술에 대한 놀라움과 관련 논문 소개.

  • Gemma 4-31B의 뛰어난 지능/크기 비율에 대한 인상.
  • 모델 증류의 핵심 비결은 학생 모델이 다음 토큰을 예측하는 대신, 교사 모델이 전체 '사고 과정'을 상세한 확률 분포로 공유하는 방식.
  • '풍부한' 정보가 학생 모델이 더 효율적으로 학습하고 더 큰 모델을 능가하게 함.
  • Gemma 4 이전 버전에서도 동일한 접근 방식을 사용했으며, 교사 모델(3.1 Pro)이 개선됨.
Notable Quotes & Details
  • Gemma 4-31B

AI 연구자, 머신러닝 엔지니어

In 10 Minutes with AI, I Just Got More Closure on My Divorce than 4 Years of Therapy

AI 챗봇과의 10분 대화가 이혼 후 4년간의 치료보다 더 큰 심리적 위안을 주었다는 개인적인 경험.

  • AI 챗봇이 이혼 관계를 정리하는 데 매우 유용하고 치료적인 경험을 제공했음.
  • 챗봇과의 대화를 통해 관계를 놓아주고 앞으로 나아갈 수 있는 허락을 얻었다고 느낌.
  • AI가 어려운 상황에서 신속함과 명확성을 제공할 수 있음을 강조.
  • AI가 치료를 완전히 대체할 수 없으며, 여전히 정기적인 치료를 받고 있음을 명시.
Notable Quotes & Details

일반 독자, AI의 심리적 활용에 관심 있는 사람

Notes: 개인적인 경험에 대한 내용이며, AI의 치료 대체가 아님을 명시.

Bias in training data on display in weird way

AI 비디오 생성 모델에서 인종 및 성별 편향이 나타나, 프롬프트에서 요청했음에도 불구하고 특정 인종의 소년들에게만 특정 역할이 할당되고 소녀는 배제되었다는 경험 공유.

  • 사용자가 90년대 장난감 광고 비디오 생성 AI에 '다양한 인종의 소년 소녀들이 할로윈 의상을 입고 '해적이 될 충동이 있어'라고 말하는' 프롬프트를 입력함.
  • 두 AI 모델 모두 소녀를 포함하지 않았고, 해적은 흑인 소년, 닌자는 동아시아 소년, 스파이는 백인 소년으로 고정됨.
  • 이는 훈련 데이터에 반영된 편향성을 보여주는 것으로 분석됨.
  • 특히 흑인 아이가 해적으로 나타난 것이 놀랍다는 점을 언급함.
Notable Quotes & Details

AI 사용자, 일반 독자

Confusing Website

ChatGPT가 제공한 링크가 이상한 웹사이트로 연결되고 계속 리다이렉션되어 혼란스러움을 겪는 사용자의 경험.

  • 사용자가 ChatGPT에 비디오를 설명하고 링크를 받았지만, 해당 링크는 이해할 수 없는 페이지로 리다이렉션됨.
  • 웹사이트 메인 페이지는 정상적으로 보이지만 매우 느리다.
  • ChatGPT가 잘못된 또는 오해의 소지가 있는 정보를 제공할 수 있음을 시사.
Notable Quotes & Details

일반 독자, AI 챗봇 사용자

I tested the same prompt across multiple AI models… the differences surprised me

여러 AI 모델(ChatGPT, Claude 등)에 동일한 프롬프트를 입력했을 때, 작업 유형에 따라 결과물의 차이가 크다는 것을 발견한 사용자 경험.

  • 구조화된 글쓰기, 개념 설명, 창의적 응답 등 작업에 따라 특정 모델이 더 우수함을 확인.
  • "최고"의 AI 모델은 없으며, 사용 목적에 따라 적합한 모델이 다름을 깨달음.
  • 여러 모델을 수동으로 비교하는 과정이 번거로움을 언급하며 다른 사용자들의 비교 방법에 대해 문의.
Notable Quotes & Details

AI 개발자, AI 연구자, AI 모델 사용자

I built a prompt injection detector that outperforms LlamaGuard 3 on indirect/roleplay attacks

Mistral, Llama, Qwen 등 자체 호스팅 LLM을 위한 화이트박스 프롬프트 인젝션 탐지기 'Arc Sentry'를 개발했으며, 이 탐지기가 간접/역할극 공격에서 LlamaGuard 3보다 우수한 성능을 보였다는 내용.

  • Arc Sentry는 모델의 내부 표현을 감시하여 간접, 가설, 역할극 형태의 공격을 탐지한다.
  • 벤치마크 결과, 간접/역할극/기술 프롬프트(40 OOD 프롬프트)에서 Arc Sentry는 Recall 0.80, F1 0.84를 기록하여 LlamaGuard 3 8B (Recall 0.55, F1 0.71) 및 OpenAI Moderation API (Recall 0.75, F1 0.86)보다 높은 Recall을 보였다.
  • Arc Sentry는 모델이 generate()를 호출하기 전에 차단하며, 경량의 사전 필터는 CPU에서 모델 접근 없이 실행된다.
  • GitHub 리포지토리: https://github.com/9hannahnine-jpg/arc-sentry
Notable Quotes & Details
  • Arc Sentry: Recall 0.80, F1 0.84
  • OpenAI Moderation API: Recall 0.75, F1 0.86
  • LlamaGuard 3 8B: Recall 0.55, F1 0.71

AI 연구자, LLM 개발자, 보안 연구원

To 16GB VRAM users, plug in your old GPU

16GB VRAM을 가진 사용자가 오래된 GPU를 추가로 활용하여 LLM 모델 실행 성능을 향상시키는 방법과 그 설정을 설명한다.

  • 16GB VRAM 사용자도 6GB 이상의 오래된 GPU를 추가하여 총 VRAM 용량을 늘릴 수 있다.
  • 2개의 다른 GPU를 사용할 때 성능 극대화를 위해 동일한 GPU가 필요하다는 일반적인 생각과 달리, 비대칭 구성도 효과적이다.
  • `llama-server` 설정 시 `dev=Vulkan1,Vulkan2`로 두 GPU를 모두 활성화하고, `no-mmap`, `mlock=false` 등으로 VRAM 사용을 최적화한다.
  • 128k 최대 컨텍스트에서 71k 실제 컨텍스트 사용 시, 단일 카드 대비 4t/s에서 19t/s로 처리 속도가 크게 향상되었다.
Notable Quotes & Details
  • 16GB VRAM
  • 6GB VRAM
  • 22GB VRAM
  • 24GB class card
  • 5070Ti 16GB
  • 2060 6GB
  • llama-server
  • dev=Vulkan1,Vulkan2
  • no-mmap
  • mlock=false
  • np=1
  • no-mmproj-offload
  • cache-type-k=q8_0
  • cache-type-v=q8_0
  • n-gpu-layers=999
  • split-mode=layer
  • c=128000
  • 128k max context
  • 71k actual context usage
  • pp=186t/s
  • tg=19t/s
  • 4t/s on single card
  • prompt eval time = 5761.5

LLM 개발자, 로컬 LLM 사용자, 하드웨어 애호가

Skymizer Taiwan Inc. Unveils Breakthrough Architecture Enabling Ultra-Large LLM Inference on a Single Card

Skymizer Taiwan Inc.이 단일 PCIe 카드에서 초거대 LLM 추론을 가능하게 하는 새로운 아키텍처를 공개했다.

  • 단일 PCIe 카드(HTX301 칩 6개, 384GB 메모리)로 700B 파라미터 모델 추론을 로컬에서 240W로 실행 가능하다.
  • 기존 GPU는 compute-dense prefill을 담당하고, HTX301 카드는 decode를 처리하는 하이브리드 접근 방식을 사용한다.
  • 이 방식은 대규모 VRAM을 가진 그래픽 카드 없이도 거대 모델을 실행할 수 있게 한다.
  • 실제 제품 성능은 6월 초 Computex에서 공개될 예정이다.
Notable Quotes & Details
  • Skymizer Taiwan Inc.
  • HTX301 chips
  • 384 GB of memory
  • 700B-parameter model inference
  • ~240W per card
  • early June at Computex

AI 연구자, LLM 개발자, 하드웨어 엔지니어, 엔터프라이즈

AMD Hipfire - a new inference engine optimized for AMD GPU's

AMD GPU에 최적화된 새로운 추론 엔진 'Hipfire'가 등장했으며, 특히 이전 세대 AMD GPU에서도 성능 향상을 제공한다.

  • Hipfire는 모든 AMD GPU(최신 GPU뿐만 아니라)에 초점을 맞춘 새로운 추론 엔진이다.
  • 특별한 mq4 양자화(quantization) 방식을 사용한다.
  • Huggingface에서 Hipfire 개발자가 모델들을 배포하고 있으며, Localmaxxing 벤치마킹 사이트에서 Hipfire 추론의 극적인 속도 향상을 보여준다.
  • Hipfire는 AMD와 공식적인 연관이 없을 가능성이 있다.
Notable Quotes & Details
  • AMD Hipfire
  • mq4 quantization
  • Huggingface
  • Localmaxxing
  • RDNA3

AMD GPU 사용자, LLM 개발자, 양자화 기술에 관심 있는 엔지니어

Got OpenAI's privacy filter model running on-device via ExecuTorch

OpenAI의 개인 정보 필터 모델을 ExecuTorch를 통해 모바일 기기에서 온디바이스로 실행하는 실험 결과, 민감한 콘텐츠를 효과적으로 탐지하며 프라이버시를 강화한다.

  • OpenAI의 개인 정보 필터 모델이 ExecuTorch 및 react-native-executorch 브리지를 통해 모바일에서 성공적으로 실행되었다.
  • 약 600MB RAM을 사용하여 이메일, 문서, 채팅 로그 등 다양한 텍스트에서 PII 및 민감한 자료를 정확하게 플래그한다.
  • 민감한 데이터를 클라우드 API로 보내는 대신 로컬에서 처리함으로써 프라이버시 보장을 강화한다.
  • 온디바이스 실행은 드래프트, 내부 문서, 채팅 기록 등 민감하여 외부 전송을 꺼리는 콘텐츠에 특히 유용하다.
Notable Quotes & Details
  • OpenAI's privacy filter model
  • ExecuTorch
  • mobile
  • ~600 MB RAM
  • react-native-executorch

모바일 개발자, 보안 엔지니어, AI 프라이버시 연구자

Simple to use vLLM Docker Container for Qwen3.6 27b with Lorbus AutoRound INT4 quant and MTP speculative decoding - 118 tokens/second on 2x 3090s

Qwen3.6 27b 모델을 위한 vLLM Docker 컨테이너를 사용하여 2x 3090 GPU에서 초당 118 토큰의 속도를 달성하는 방법.

  • vLLM Docker 컨테이너를 활용하여 Qwen3.6 27b 모델 실행.
  • Lorbus AutoRound INT4 양자화 및 MTP(Multi-Tenant Preemption) 추론 사용.
  • 2x 3090 GPU 환경에서 초당 118 토큰의 높은 처리량 달성.
  • Reddit r/LocalLLaMA 커뮤니티에 공유됨.
Notable Quotes & Details
  • 118 tokens/second
  • 2x 3090s
  • Qwen3.6 27b
  • INT4

AI 개발자, LLM 연구자, 딥러닝 엔지니어

Notes: 내용 불완전

TurboQuant: A First-Principles Walkthrough

TurboQuant의 기본 원리에 대한 상세한 설명과 함께 오류, 분산, 편향과 같은 핵심 개념들을 다룬다.

  • 오차(Error)는 추측과 실제 값 사이의 거리이다.
  • 평균 제곱 오차(MSE)는 오차를 양수로 계산하고 큰 오차에 더 큰 페널티를 부여한다.
  • 첫 번째 모멘트(평균)와 두 번째 모멘트(제곱의 평균)의 중요성을 설명한다.
  • 양자화(quantizer) 시 데이터의 크기가 줄어들어 입력보다 작은 재구성을 만든다.
  • 추정량(estimator)의 분산(Variance)과 편향(Bias)이 추측의 정확성에 미치는 영향을 분석한다.
Notable Quotes & Details

AI 연구자, 딥러닝 연구자, 통계학자

I tested ChatGPT Images 2.0 vs. Gemini Nano Banana to see which is better - this model wins

ChatGPT Images 2.0와 Gemini Nano Banana의 이미지 생성 능력을 비교 테스트한 결과, ChatGPT Images 2.0이 개선된 성능을 보였으나 Gemini Nano Banana는 텍스트와 프롬프트 처리에서 약점을 드러냈고, Gemini의 개인화 기능은 개인 정보 보호 우려를 제기했다.

  • OpenAI는 텍스트 및 컨텍스트 기반 이미지 생성이 가능한 ChatGPT Images 2.0과 GPT-5.5를 출시했다.
  • ChatGPT Images 2.0은 이전 버전에 비해 이미지 생성 능력이 크게 향상되었다.
  • Gemini Nano Banana는 텍스트 처리와 프롬프트 지시에 어려움을 겪는 것으로 나타났다.
  • 2025년 12월 테스트에서 Nano Banana는 93%를 기록했으나, ChatGPT는 팝 문화 테스트를 거부하며 74%를 기록했다.
  • 이번 재테스트에서는 두 모델의 현재 성능을 비교하여, ChatGPT Images 2.0이 더 나은 결과를 보여주었다.
Notable Quotes & Details
  • ChatGPT Images 2.0
  • Gemini Nano Banana
  • GPT-5.5
  • 2025년 12월
  • 93%
  • 74%

일반 소비자, 기술 리뷰어, AI 이미지 생성 도구 사용자

You can still get a free Samsung Galaxy Watch 8 deal at T-Mobile - here's how to qualify

T-Mobile에서 새로운 Watch Plan Plus 라인에 가입하면 삼성 갤럭시 워치 8을 무료로 받을 수 있는 프로모션에 대한 정보와 자격 요건을 설명한다.

  • T-Mobile에서 Watch Plan Plus에 가입 시 삼성 갤럭시 워치 8을 무료로 제공하는 프로모션.
  • 기기를 선불로 구매한 후 24개월 동안 월별 크레딧으로 환급받는 방식.
  • iOS 사용자도 새로운 Watch Plan Plus 라인 추가 시 애플 워치 시리즈 11에 대해 300달러 할인을 받을 수 있다.
  • ZDNET은 이와 같은 통신사 "무료" 기기 딜에는 보통 조건이 따른다고 명시했다.
Notable Quotes & Details
  • Samsung Galaxy Watch 8
  • T-Mobile
  • 24개월
  • $400
  • Apple Watch Series 11
  • $300

스마트워치 구매 희망자, T-Mobile 가입자, 삼성 및 애플 제품 사용자

Notes: 홍보성 콘텐츠

I stress-tested this SSD enclosure with a bulldozer - here's how it held up

ZDNET의 리뷰어는 휴대용 SSD 인클로저의 내구성을 불도저로 테스트하여 그 견고함을 평가했습니다.

  • SSD는 기존 HDD보다 안정적이며, 야외 사용 시의 손상 위험을 줄여줍니다.
  • ZDNET의 추천은 광범위한 테스트, 연구 및 비교 쇼핑을 기반으로 합니다.
  • USB-C 커버는 분실될 가능성이 있습니다.
Notable Quotes & Details

일반 소비자, 기술 제품 리뷰 독자

Notes: 내용 불완전

Uber Migrates 75,000+ Test Classes from Junit 4 to Junit 5 Using Automated Code Transformation

Uber는 자동화된 코드 변환 도구를 사용하여 자사의 Java 모노레포에 있는 75,000개 이상의 테스트 클래스를 JUnit 4에서 JUnit 5로 성공적으로 마이그레이션했습니다.

  • Uber는 현대적인 테스팅 프레임워크 도입과 기술 부채 감소를 위해 JUnit 4에서 JUnit 5로 마이그레이션했습니다.
  • JUnit 5는 모듈식 아키텍처와 개선된 매개변수화된 테스팅을 제공합니다.
  • Bazel과의 통합을 위해 JUnit Platform을 통한 통합 실행 모델을 구축하여 점진적 마이그레이션을 가능하게 했습니다.
  • OpenRewrite를 활용하여 소스 코드 변경을 자동화하고, JUnit 4 API를 JUnit 5와 동등한 기능으로 변환하는 레시피를 정의했습니다.
Notable Quotes & Details
  • 75,000+ 테스트 클래스
  • 1.25백만+ 라인의 코드
  • JUnit 4는 2021년부터 유지보수 모드
  • 엔트리 레벨 개발자 고용은 2022년 이후 67% 감소

소프트웨어 개발자, 아키텍트, 테스팅 전문가

Notes: 내용 불완전

Article: MCP in the Java World: Bringing Architectural Strategy to LLM Integrations

MCP(Model Control Plane)는 LLM 통합에 아키텍처적 규율을 도입하여, 모델과 엔터프라이즈 시스템 간의 명확한 계약, 느슨한 결합, 버전 관리 및 거버넌스를 가능하게 합니다.

  • MCP는 LLM 통합의 아키텍처적 규율을 강화하여 기존의 ad-hoc 방식의 문제점을 해결합니다.
  • Java SDK는 기존 보안, 관찰 가능성, 운영 관행을 유지하며 LLM을 통합할 수 있도록 지원합니다.
  • MCP 서버는 LLM과 코어 시스템 사이에 anti-corruption layer 역할을 하여, 통제된 기능만 노출하고 레거시 시스템을 보호합니다.
  • MCP는 컨텍스트 관리를 데이터 선택, 유효성 검사, 캐싱, 최소화를 포함하는 관리형 라이프사이클로 확장하여 아키텍트에게 새로운 설계 책임을 부여합니다.
  • MCP는 복잡성과 운영 오버헤드를 추가하지만, 엔터프라이즈 시스템의 거버넌스, 안전, 장기적인 개발을 보장합니다.
Notable Quotes & Details

Java 개발자, 엔터프라이즈 아키텍트, LLM 통합 전문가

Notes: 내용 불완전

Microsoft's Russinovich and Hanselman Warn AI Is Hollowing Out the Junior Developer Pipeline

Microsoft의 Mark Russinovich와 Scott Hanselman은 AI 코딩 도구가 주니어 개발자 파이프라인에 구조적인 위기를 초래하고 있다고 경고합니다.

  • AI 코딩 도구는 시니어 엔지니어의 생산성을 크게 높이는 반면, 주니어 개발자에게는 'AI drag'를 유발합니다.
  • 기업들이 시니어 개발자를 고용하고 주니어를 자동화하는 새로운 유인 구조가 형성되어, 다음 세대 시니어 엔지니어를 양성하는 인재 파이프라인이 붕괴될 수 있습니다.
  • 하버드 연구에 따르면 GPT-4 출시 이후 AI 관련 직업에서 22~25세 고용이 약 13% 감소한 반면, 시니어 역할은 증가했습니다.
  • MIT 연구는 ChatGPT에 작업 아웃소싱 시 뇌 활동 감소와 기억력 저하('인지 부채')를 발견했습니다.
  • AI 에이전트가 버그를 숨기거나 중복 로직을 생성하는 등 실제 코드 문제를 해결하는 데 어려움을 겪는 사례가 있습니다.
Notable Quotes & Details
  • 22-25세 고용 약 13% 감소
  • 엔트리 레벨 개발자 고용 2022년 이후 67% 감소

소프트웨어 엔지니어링 관리자, 기술 경영진, 정책 입안자, 개발자 지망생

Notes: 내용 불완전

Mythos Changed the Math on Vulnerability Discovery. Most Teams Aren't Ready for the Remediation Side

Anthropic의 Claude Mythos Preview가 보안 취약점 발견 방식을 혁신하고 있지만, 대부분의 조직은 이를 효과적으로 처리하고 해결할 준비가 되어 있지 않다는 내용이다.

  • Anthropic의 Claude Mythos Preview는 대규모 취약점을 식별하는 강력한 사이버 보안 중심 AI 시스템이다.
  • AI 모델이 취약점을 훨씬 빠르게 발견할 수 있지만, 발견된 취약점을 수정하는 것은 별개의 워크플로이며 조직의 처리 인프라가 부족하다.
  • PlexTrac은 취약점 관리 프로세스에서 발생하는 격차를 해소하기 위해 설계되었다.
Notable Quotes & Details
  • Anthropic’s Claude Mythos Preview
  • April 7 announcement

보안 전문가, CISO, 기업 경영진, IT 관리자

PhantomCore Exploits TrueConf Vulnerabilities to Breach Russian Networks

친우크라이나 해커 집단 PhantomCore가 러시아 네트워크의 TrueConf 화상 회의 소프트웨어 서버를 표적으로 삼아 세 가지 취약점을 악용하여 원격으로 명령을 실행한 공격 사례에 대한 보고이다.

  • PhantomCore는 2025년 9월부터 러시아의 TrueConf 서버를 공격해왔다.
  • 공격자들은 3가지 취약점(BDU:2025-10114, BDU:2025-10115, BDU-2025-10116)을 악용하여 임의의 파일을 읽거나 원격 명령을 실행했다.
  • PhantomCore는 2022년 러시아-우크라이나 전쟁 이후 활동 중인 정치적/재정적 동기의 해킹 그룹이다.
  • 이들은 대규모 작전을 수행하며 장기간 피해자 네트워크에 보이지 않게 침투하는 스텔스 능력을 갖추고 있다.
Notable Quotes & Details
  • PhantomCore
  • TrueConf
  • September 2025
  • Positive Technologies
  • BDU:2025-10114 (CVSS score: 7.5)
  • BDU:2025-10115 (CVSS score: 7.5)
  • BDU-2025-10116 (CVSS score: 9.8)
  • Babuk
  • LockBit

사이버 보안 연구원, IT 관리자, 기업 보안팀, 지정학적 사이버 위협 분석가

사카나 AI, 단순 모델 호출 넘어 모델 가중치 섞는 ‘진화형 오케스트레이션’ 공개

사카나 AI가 단일 거대 모델의 한계를 넘어 여러 전문 AI 모델을 실시간으로 결합하여 문제를 해결하는 새로운 오케스트레이션 시스템인 '사카나 푸구(Sakana Fugu)'를 공개했다.

  • 사카나 푸구는 기존 라우팅 방식과 달리, 여러 최첨단 AI 모델의 가중치를 실시간으로 조절하고 섞어 최적화된 '가상의 통합 모델'을 생성한다.
  • 이 시스템은 사카나 AI가 ICLR 2026에서 발표한 '트리니티'와 '컨덕터' 아키텍처를 기반으로 한다.
  • 푸구 모델은 자체적으로 소형 언어 모델로 동작하면서 필요에 따라 다른 LLM을 호출하고 활용하며, 테스트 단계에서 성능 확장이 가능하다.
  • "가장 강력한 AI는 하나의 거대한 모델이 아니라, 서로 협력하는 전문화된 에이전트들의 집합"이라는 사카나의 철학을 반영한다.
  • 빠른 응답 속도의 '푸구 미니'와 복잡한 작업에 최적화된 '푸구 울트라' 두 가지 버전으로 제공된다.
Notable Quotes & Details
  • 사카나 AI
  • 24일(현지시간)
  • ICLR 2026
  • 트리니티(Trinity)
  • 컨덕터(Conductor)
  • 푸구 미니(Fugu Mini)
  • 푸구 울트라(Fugu Ultra)

AI 연구자, LLM 개발자, AI 시스템 아키텍트, 기업 기술 책임자

"흩어진 GPU 하나로 묶어"...구글, '비동기·분산식' 모델 학습법 공개

구글 딥마인드가 기존 AI 학습의 동기화 문제를 해결하고 비동기·분산 방식으로 대규모 모델 학습을 가능하게 하는 새로운 아키텍처 '디커플드 디로코(Decoupled DiLoCo)'를 공개했다.

  • 디커플드 디로코는 전체 연산을 독립적인 '학습 단위'로 나누어 비동기적으로 통신하며 학습을 진행, 일부 장비 문제 발생 시에도 시스템이 멈추지 않는다.
  • 데이터센터 간 대역폭 요구량을 획기적으로 줄여, 일반 인터넷 수준의 연결로도 글로벌 분산 학습이 가능해진다 (198Gbps -> 0.84Gbps).
  • 카오스 엔지니어링 실험을 통해 장애 대응 능력이 크게 향상되었으며, '자가 치유' 특성을 보인다.
  • 120만 개 칩 시뮬레이션에서 유효 학습 시간 비율(goodput)이 27%에서 88%로 상승했다.
  • 구글의 '젬마 4' 모델 실험에서 기존 방식과 유사한 정확도를 유지했으며, 기존 대비 최대 20배 이상 빠른 속도를 기록했다.
  • 서로 다른 세대의 칩을 혼합 사용할 수 있어 데이터센터 운영 비용 절감 및 자원 활용 효율 개선에 기여한다.
Notable Quotes & Details
  • 구글 딥마인드
  • 23일(현지시간)
  • 디커플드 디로코(Decoupled DiLoCo·Distributed Low-Communication)
  • 198기가비트(Gbps)
  • 0.84Gbps
  • 120만개 칩
  • 27%
  • 88%
  • 젬마 4
  • 20배 이상

AI 연구자, 머신러닝 엔지니어, 클라우드 아키텍트, 데이터센터 운영자

바이트댄스, 정교해진 3D 생성 모델 '시드3D 2.0' 공개

바이트댄스가 정밀한 기하 구조와 사실적인 재질 표현이 가능한 차세대 3D 생성 모델 '시드3D 2.0'을 공개했다.

  • 시드3D 2.0은 '대강-정밀' 2단계 생성 구조를 통해 복잡한 기하 구조와 얇은 구조물 표현의 정확도를 높였다.
  • 금속성, 거칠기 등 물리적 특성을 포함하는 PBR 맵을 통합 생성하는 모델을 도입하여 재질 표현을 개선했다.
  • 전문가 혼합(MoE) 구조와 시각-언어 모델(VLM)을 활용하여 고해상도 텍스처 디테일 및 안정적인 재질 분해를 가능하게 했다.
  • 3D 모델링 경험자 60명 대상 블라인드 테스트에서 기존 모델 대비 기하 구조 및 텍스처 생성 품질에서 우위를 입증했다.
  • 단순 객체 생성 외에 파트 단위 분해 및 조립, 관절 구조 생성, 이미지/영상/텍스트 기반 3D 장면 구성 등 활용 범위가 확대되었다.
Notable Quotes & Details
  • 3D 모델링 경험이 있는 평가자 60명을 대상으로 블라인드 비교 실험
  • 텍스처 품질 평가에서는 69% 이상의 선호도를 기록

AI 연구자, 3D 모델링 개발자, 게임/로봇 시뮬레이션 개발자

삼성SDS·LG CNS, '챗GPT 에듀' 국내 판매 돌입..."교육 AX 대결"

삼성SDS와 LG CNS가 오픈AI의 교육용 AI 서비스 '챗GPT 에듀'의 국내 판매를 시작하며 교육 AI 시장에서 경쟁을 예고했다.

  • '챗GPT 에듀'는 GPT-5 기반의 교육기관 전용 AI 서비스로, 강의 자료 생성, 연구/리포트 정리, 맞춤형 튜터링, 코딩/데이터 분석 기능을 제공한다.
  • 사용자 대화가 AI 학습 데이터로 활용되지 않아 데이터 프라이버시 및 보안이 강화되었다.
  • 삼성SDS는 한국방송통신대에 '챗GPT 에듀' PoC를 진행하며 서비스를 교육기관으로 확대할 계획이다.
  • LG CNS는 수도권 대학 대상 소개 투어 및 AI 교육 세미나를 진행하고, '오픈AI 론치 센터'를 통해 기술 지원을 제공한다.
  • 두 회사는 같은 날 '챗GPT 에듀' 판매를 시작하며 국내 교육 AI 시장에서의 본격적인 경쟁을 알렸다.
Notable Quotes & Details
  • 9만여명 규모의 한국방송통신대
  • 약 10개 고객사를 확보
  • 전국 17개 고객센터와 4000명 이상의 상담사

교육기관 관계자, IT 서비스 기업 관계자, AI 교육 시장 투자자

[ZD SW 투데이] 인포뱅크, '2026 그랜드-K 창업학교' 참가팀 모집 外

ZDNet Korea의 'ZD SW 투데이' 섹션에서 인포뱅크의 창업학교, 신세계아이앤씨의 생태계 복원 프로젝트, EDB의 데이터 관리 혁신상 수상, 쿠콘과 트래포트의 여행 플랫폼 자동화 협력, 어라이즈 AI의 LG유플러스 AI 컨택센터 플랫폼 공급 소식을 다루고 있다.

  • 인포뱅크가 바이오헬스 및 딥테크 분야 스타트업을 육성하는 '2026 그랜드-K 창업학교' 참가팀을 모집한다.
  • 신세계아이앤씨는 AI·드론 기술 기반의 생태계 복원 프로젝트 '그린 웨이브'를 진행한다.
  • EDB가 'EDB 포스트그레스 AI'로 '2026 데이터 브레이크스루 어워즈'에서 올해의 데이터 관리 혁신상을 수상했다.
  • 쿠콘과 트래포트가 온라인 여행 플랫폼(OTA) 특화 결제 및 운영 자동화 솔루션 공동 개발에 나선다.
  • 어라이즈 AI가 LG유플러스 AI 컨택센터의 거대언어모델 운영관리(LLMOps) 고도화를 위해 '어라이즈 AX 플랫폼'을 공급했다.
Notable Quotes & Details
  • 60개 팀
  • 다음 달 8일까지
  • 30여 개 투자기관
  • 6주간 공통 교육
  • 글로벌 3500건 이상의 후보 추천
  • 전국 17개 고객센터와 4000명 이상의 상담사

소프트웨어 업계 관계자, 스타트업, 투자자, 환경 보호에 관심 있는 기술 기업, AI 솔루션 도입을 고려하는 기업

Notes: 내용이 잘려서 불완전함.

전 세계 첫 구글 AI 캠퍼스, 한국에 문 연다…딥마인드와 'K-문샷' 추진

구글 딥마인드 데미스 하사비스 CEO의 방한을 계기로 한국에 전 세계 첫 구글 AI 캠퍼스가 설립되고, 딥마인드와 한국 정부의 'K-문샷' 프로젝트 연계를 통한 AI 협력이 추진된다.

  • 구글은 올해 안에 서울에 전 세계 첫 구글 AI 캠퍼스를 개소하여 한국 연구자 및 스타트업과의 협력을 확대할 예정이다.
  • 하사비스 CEO는 구글 연구진의 한국 파견(최소 10명)을 검토하기로 동의했다.
  • 구글 AI 캠퍼스는 정부의 'K-문샷' 프로젝트와 연계하여 AI 기반 과학기술 협력의 거점 역할을 수행한다.
  • 과학기술정보통신부는 구글 딥마인드와 생명과학, 기상기후 등 과학기술 분야 공동연구, AI 인재 양성, 책임있는 AI 활용을 위한 MOU를 체결했다.
  • 이재명 대통령과 하사비스 CEO는 AGI 도래 시점(5년 이내, 2030년)과 사회적 파급 효과, 그리고 AI 악용 가능성에 대한 안전장치 마련의 필요성에 대해 논의했다.
Notable Quotes & Details
  • 알파고 대국 10주년
  • 올해 안에
  • 최소 10명 파견
  • 2030년까지 연구생산성 2배 제고
  • 2035년까지 첨단바이오·미래에너지·반도체 등 8대 분야 12대 국가 미션 해결
  • 5월부터 운영 예정인 국가과학AI연구센터
  • 앞으로 5년 안에, 이르면 2030년 인간의 모든 인지 능력을 구사하는 AGI가 가시화될 것

AI 연구자, 정부 관계자, 과학기술 정책 입안자, IT 업계 관계자, 스타트업

Notes: 내용이 잘려서 불완전함.

하사비스 "韓 반도체·로봇, AGI 핵심…삼성·SK하이닉스 만날 것"

구글 딥마인드 CEO 데미스 하사비스가 한국 방문 중 AGI 시대의 도래와 한국의 반도체·로봇 기술력의 중요성을 강조하며 국내 기업들과의 협력을 확대할 계획을 밝힘.

  • 하사비스 CEO는 5년 내 AGI 시대가 도래하며 산업혁명보다 10배 강력하고 빠른 파급력을 가질 것이라고 전망했다.
  • 한국의 반도체 인프라와 로보틱스 기술력이 AGI 시대의 필수 동력이 될 것으로 평가했다.
  • 28일 삼성전자, SK하이닉스, 현대자동차, LG전자 등 국내 주요 기업 관계자들과 만날 예정이다.
  • AI 안전·보안 분야 및 생명과학, 기상 기후 등 다양한 분야에서 한국과 협력하고, 국가과학AI연구센터를 거점으로 연구자 교류를 활성화할 계획이다.
  • 국내 인재들을 위한 구글 딥마인드 인턴십 기회를 발굴하고 한국 내 AI 캠퍼스 설립을 추진한다.
Notable Quotes & Details
  • "앞으로 5년 내 산업혁명보다 10배 더 강력하고 빠른 일반인공지능(AGI) 시대가 올 겁니다." - 데미스 하사비스
  • 2024년 AI 서울 정상회의
  • "10년 전 알파고가 AI시대의 막을 열었다면, 이제는 AI가 과학기술 난제를 풀고 국민의 삶에 실질적인 영향을 미치는 단계로 나아가고 있습니다." - 배경훈 부총리

AI 산업 관계자, 기술 투자자, 일반 독자

선거마다 ‘딥페이크’ 홍역...교묘한 영상에 6.3 지방선거 흔들릴라

6.3 지방선거를 앞두고 딥페이크 확산에 대한 우려가 커지면서 정부가 총력 대응에 나서고 있으며, 전문가들은 시민들의 주의를 당부했다.

  • 딥페이크는 AI 기술로 제작된 이미지, 영상 등으로, 선거철 유권자의 합리적 판단을 저해할 수 있다.
  • 공직선거법에 따라 AI 생성 선거 운동 영상에는 'AI가 생성한 가상 정보'임을 명시해야 하며, 선거일 90일 전부터는 딥페이크 사용 자체가 금지된다.
  • 정부는 전담 수사반과 AI 탐지 모델을 동원해 허위 정보 유포에 대응하고 있다.
  • 과거 선거에서도 딥페이크 및 허위 사실 공표 게시물이 다수 적발되었다.
  • 전문가들은 법적 규제 외에 시민들의 자발적인 주의와 공신력 있는 매체를 통한 사실 재확인의 중요성을 강조했다.
Notable Quotes & Details
  • 6.3 지방선거
  • 공직선거법 제82조
  • 선거일 전 90일부터 선거 당일까지 딥페이크 영상 사용 금지
  • 제21대 대통령 선거 (2022년) 딥페이크 등 1만 513건, 허위 사실 9522건 적발
  • 22대 총선 (2024년) 딥페이크 등 389건, 허위 사실 9777건 적발

일반 유권자, 정치 관련 종사자, 언론 관계자, AI 기술 및 사회 영향에 관심 있는 독자

Jooojub
System S/W engineer
Explore Tags
Series
    Recent Post
    © 2026. jooojub. All right reserved.