Daily Briefing

April 20, 2026
2026-04-19
41 articles

A humanoid robot just beat the human half-marathon world record by seven minutes in Beijing

휴머노이드 로봇 '라이트닝'이 베이징 하프 마라톤에서 인간 세계 기록을 7분 가까이 단축하며 50분 26초를 기록했다.

  • 라이트닝 로봇은 21km 코스를 자율적으로 완주했으며, 센서 융합 및 실시간 의사결정 알고리즘을 사용했다.
  • 원격 제어된 다른 라이트닝 로봇은 48분 19초를 기록하며 더 빠른 시간을 달성했다.
  • 인간 세계 기록(57분 20초)보다 약 7분 단축된 기록이다.
  • 이 로봇은 169cm 키, 95cm 유효 다리 길이, 400Nm 피크 토크, 독자적인 액체 냉각 시스템을 갖추고 있다.
  • 작년 대회에서는 21대 중 6대만 완주하는 등 어려움이 있었으나, 올해는 26개 브랜드에서 300대 이상 로봇이 참가하여 성공적으로 개최되었다.
Notable Quotes & Details
  • 50분 26초
  • 7분
  • 48분 19초
  • 57분 20초
  • 2026-04-19
  • 21km

일반 독자, 로봇 공학 연구자, AI 기술 애호가

Trump wants to stop states from regulating AI. States and Congress keep saying no.

트럼프 행정부가 인공지능(AI) 규제에 대한 주(州) 정부의 권한을 제한하려 하지만, 주 정부와 의회는 이를 반대하며 독자적인 AI 법안을 추진하고 있다.

  • 트럼프 행정부는 법무부 태스크포스, 상무부 평가, 의회에 대한 입법 프레임워크 제안 등을 통해 주 차원의 AI 규제를 막으려 한다.
  • 2025년에 1,208개의 AI 관련 법안이 주 정부에 의해 발의되었고, 145개가 제정되었다.
  • 의회는 AI 규제에 대한 선점(preemption)을 두 차례 거부했으며, 유타주에서 발의된 AI 투명성 법안은 백악관의 반대로 통과되지 못했다.
  • 유타주 대표인 Doug Fiefia는 주 정부의 권리를 옹호하며, 백악관의 조치에 비판적인 입장을 표명했다.
  • Fiefia의 법안은 '프론티어 개발자'를 대상으로 하였고, 안전 및 아동 보호 계획 공개, 내부 고발자 보호를 포함했다.
Notable Quotes & Details
  • 1,208 AI bills
  • 145 enacted
  • 99-1 Senate vote
  • House Bill 286
  • 2026-04-19
  • 10^26 floating-point operations
  • $1 million penalty cap

정책 입안자, 법률 전문가, AI 산업 관계자, 일반 독자

Google is in talks with Marvell to build custom AI inference chips as it diversifies beyond Broadcom

구글이 브로드컴 외에 마벨 테크놀로지와 협력하여 새로운 AI 추론 칩 개발을 논의 중이며, 이는 구글의 맞춤형 반도체 공급망 다변화 전략의 일환이다.

  • 구글은 마벨과 메모리 처리 장치 및 추론 최적화 TPU 개발을 논의하고 있다.
  • 이는 브로드컴, 미디어텍에 이은 세 번째 디자인 파트너 추가로, 공급망 다변화를 목표로 한다.
  • 맞춤형 ASIC 시장은 2026년에 45% 성장하여 2033년까지 1,180억 달러에 이를 것으로 예상된다.
  • 구글은 최근 7세대 TPU인 '아이언우드'를 발표했으며, 이는 추론 시대에 맞춰진 첫 TPU로, TPU v5p 대비 10배의 피크 성능을 제공한다.
  • 마벨이 설계할 칩은 아이언우드를 보완하는 역할을 할 것으로 보인다.
Notable Quotes & Details
  • 45%
  • 2026
  • $118 billion
  • 2033
  • 2031
  • 10배
  • 9,216
  • 10 megawatts
  • 42.5 FP8 exaflops
  • 2026-04-19

반도체 산업 관계자, AI 기술 개발자, 투자자, 기업 전략가

Stanford’s AI Index finds China has nearly closed the performance gap with the US despite spending 23 times less

스탠포드 AI 인덱스 2026 보고서에 따르면, 중국이 AI 분야 사적 투자액이 미국의 23분의 1에 불과함에도 불구하고, 미국과의 AI 모델 성능 격차를 2.7%까지 좁혔다.

  • 2023년 5월 17.5%~31.6% 포인트였던 AI 모델 성능 격차가 2026년 3월 기준 2.7%로 크게 감소했다.
  • 미국은 2025년에 2,859억 달러를 AI에 사적으로 투자한 반면, 중국은 124억 달러를 투자하여 23배의 격차를 보였다.
  • 중국은 AI 특허(글로벌 점유율 69.7%), 출판물(23.2%), 산업용 로봇 설치(미국의 9배), 에너지 인프라 분야에서 미국을 앞서고 있다.
  • AI 인재의 미국 이주율은 2017년 이후 89% 감소했다.
  • Anthropic의 Claude Opus 4.6이 선두를 유지하지만, ByteDance의 Dola-Seed-2.0-Preview 등 중국 모델들도 빠르게 추격하고 있다.
Notable Quotes & Details
  • 2.7%
  • 17.5-31.6 percentage points
  • 23 times less
  • $285.9 billion
  • $12.4 billion
  • 69.7%
  • 23.2%
  • 9x
  • 89%
  • 2017
  • 2026-04-19
  • Claude Opus 4.6
  • Dola-Seed-2.0-Preview
  • 1,503
  • 1,464

AI 연구자, 정책 입안자, 기술 투자자, 국제 관계 분석가

Threads is redesigning its website and finally adding direct messages to the desktop

Threads는 데스크톱 웹 인터페이스를 개편하고 직접 메시지 기능을 추가할 예정이다.

  • 새로운 웹 인터페이스는 직접 메시지, 탐색 사이드바, 더 깔끔한 단일 피드 레이아웃을 제공한다.
  • 모바일에서 2025년 6월에 출시된 DM 기능이 웹에는 "향후 몇 주 내"에 적용될 예정이다.
  • 이를 통해 가장 적극적인 데스크톱 사용자들에게 1대1 채팅, 최대 50명 그룹 대화, 미디어 공유 기능이 제공된다.
  • Threads는 월간 활성 사용자 4억 5천만 명을 돌파하며 글로벌 광고 사업을 확장하고 있다.
  • 새로운 디자인은 X(구 트위터)의 데스크톱 레이아웃과 유사하다.
Notable Quotes & Details
  • 4억 5천만 월간 활성 사용자
  • 2025년 6월 (모바일 DM 출시)

Threads 사용자, 소셜 미디어 플랫폼 개발자, 디지털 마케터

OpenAI’s existential questions

OpenAI가 최근 인수합병을 통해 직면한 두 가지 주요 "존재론적 문제"를 해결하려 한다는 분석이다.

  • OpenAI는 개인 금융 스타트업 Hiro와 미디어 스타트업 TBPN을 인수했다.
  • Hiro 인수는 챗봇 이상의 "더 많은 유인책"을 가진 유료 제품 개발을 목표로 한다.
  • TBPN 인수는 OpenAI의 대중적 이미지를 개선하려는 노력으로 보인다.
  • TechCrunch Equity 팟캐스트에서 OpenAI의 최근 뉴스 및 전략적 방향을 논의했다.
  • 일각에서는 OpenAI가 엔터프라이즈 시장 경쟁력 강화에 집중해야 한다고 지적한다.
Notable Quotes & Details

AI 산업 투자자, OpenAI 경쟁사, AI 정책 분석가, 테크 스타트업 창업자

Notes: 내용 불완전 (팟캐스트 미리보기)

The 12-month window

AI 투자자들은 스타트업이 최고 가치에 도달하는 "12개월의 기회"를 포착하기 위해 출구 전략을 정기적으로 논의할 것을 제안한다.

  • AI 투자자 Elad Gil은 대부분의 회사에 "가치가 정점에 달하는 약 12개월의 기간"이 있다고 언급했다.
  • 이 시기를 놓치지 않고 매각한 회사들이 큰 성공을 거두었다고 강조했다 (예: Lotus, AOL, Broadcast.com).
  • 이사회 회의를 연 1~2회 정기적으로 열어 출구 전략을 논의할 것을 실용적인 제안으로 제시했다.
  • 많은 AI 스타트업이 아직 대규모 파운데이션 모델이 진출하지 않은 영역에서 존재하며, 이러한 상황이 영원히 지속되지는 않을 것이라고 경고했다.
  • Deel CEO Alex Bouaziz의 예시처럼, 대형 모델의 시장 진출에 대한 창업자들의 우려가 커지고 있다.
Notable Quotes & Details
  • 12개월의 기간

AI 스타트업 창업자, 벤처 캐피탈리스트, M&A 전략가

Cloud development platform Vercel was hacked

클라우드 개발 플랫폼 Vercel이 "타사 AI 도구"의 침해로 해킹당했으며, 해커들이 도난당한 데이터를 판매하려 하고 있다.

  • Vercel은 "타사 AI 도구"가 침해되어 해킹이 발생했다고 밝혔다.
  • ShinyHunters의 멤버라고 주장하는 인물이 직원 이름, 이메일 주소, 활동 타임스탬프 등 일부 데이터를 온라인에 게시했다.
  • Vercel은 "제한된 수의 고객"에게 영향을 미쳤다고 확인했으며, 고객들에게 의심스러운 활동 로그를 검토하고 환경 변수를 순환할 것을 권장했다.
  • 해당 공격은 Google Workspace OAuth 앱을 대상으로 한 광범위한 침해의 일부일 수 있다고 언급했다.
  • Vercel은 커뮤니티를 위해 IOC(침해 지표)를 공개하며 Google Workspace 관리자에게 해당 앱 사용 여부를 즉시 확인할 것을 권고했다.
Notable Quotes & Details

Vercel 사용자, 클라우드 개발자, 정보 보안 전문가, Google Workspace 관리자

Meet OpenMythos: An Open-Source PyTorch Reconstruction of Claude Mythos Where 770M Parameters Match a 1.3B Transformer

Anthropic has never published a technical paper on Claude Mythos.

  • Anthropic has never published a technical paper on Claude Mythos.
  • That has not stopped the research community from theorizing.
  • A new open-source project called OpenMythos , released on GitHub by Kye Gomez , attempts something ambitious: a first-principles theoretical reconstruction of what the Claude Mythos architecture might actually be, built entirely in PyTorch and grounded in peer-reviewed research.
  • The project is not a leaked model, a fine-tune, or a distillation.
  • It is a hypothesis rendered in code — and the hypothesis is specific enough to be falsifiable, which is what makes it interesting.
Notable Quotes & Details

일반 독자

How TabPFN Leverages In-Context Learning to Achieve Superior Accuracy on Tabular Datasets Compared to Random Forest and CatBoost

Tabular data—structured information stored in rows and columns—is at the heart of most real-world machine learning problems, from healthcare records to financial transactions.

  • Tabular data—structured information stored in rows and columns—is at the heart of most real-world machine learning problems, from healthcare records to financial transactions.
  • Over the years, models based on decision trees, such as Random Forest , XGBoost , and CatBoost , have become the default choice for these tasks.
  • Their strength lies in handling mixed data types, capturing complex feature interactions, and delivering strong performance without heavy preprocessing.
  • While deep learning has transformed areas like computer vision and natural language processing, it has historically struggled to consistently outperform these tree-based approaches on tabular datasets.
  • That long-standing trend is now being questioned.
Notable Quotes & Details

일반 독자

A Coding Implementation to Build an AI-Powered File Type Detection and Security Analysis Pipeline with Magika and OpenAI

In this tutorial, we build a workflow that combines Magika’s deep-learning-based file type detection with OpenAI’s language intelligence to create a practical and insightful analysis pipeline.

  • In this tutorial, we build a workflow that combines Magika’s deep-learning-based file type detection with OpenAI’s language intelligence to create a practical and insightful analysis pipeline.
  • We begin by setting up the required libraries, securely connecting to the OpenAI API, and initializing Magika to classify files directly from raw bytes rather than relying on filenames or extensions.
  • As we move through the tutorial, we explore batch scanning, confidence modes, spoofed-file detection, forensic-style analysis, upload-pipeline risk scoring, and structured JSON reporting.
  • At each stage, we use GPT to translate technical scan outputs into clear explanations, security insights, and executive-level summaries, allowing us to connect low-level byte detection with meaningful real-world interpretation.
  • Copy Code Copied Use a different Browser !pip install magika openai -q import os, io, json, zipfile, textwrap, hashlib, tempfile, getpass from pathlib import Path from collections import Counter from magika import Magika from magika.types import MagikaResult, PredictionMode from openai import OpenAI print(" Enter your OpenAI API key (input is hidden):") api_key = getpass.getpass("OpenAI API Key: ") client = OpenAI(api_key=api_key) try: client.models.list() print(" OpenAI connected successfully\n") except Exception as e: raise SystemExit(f" OpenAI connection failed: {e}") m = Magika() print(" Magika loaded successfully\n") print(f" module version : {m.get_module_version()}") print(f" model name : {m.get_model_name()}") print(f" output types : {len(m.get_output_content_types())} supported labels\n") def ask_gpt(system: str, user: str, model: str = "gpt-4o", max_tokens: int = 600) -> str: resp = client.chat.completions.create( model=model, max_tokens=max_tokens, messages=[ {"role": "system", "content": system}, {"role": "user", "content": user}, ], ) return resp.choices[0].message.content.strip() print("=" * 60) print("SECTION 1 — Core API + GPT Plain-Language Explanation") ...[truncated]
Notable Quotes & Details

일반 독자

NVIDIA Releases Ising: the First Open Quantum AI Model Family for Hybrid Quantum-Classical Systems

Quantum computing has spent years living in the future tense.

  • Quantum computing has spent years living in the future tense.
  • Hardware has improved, research has compounded, and venture dollars have followed — but the gap between a quantum processor running in a lab and one running a real-world application remains stubbornly wide.
  • NVIDIA moved to close that gap with the launch of NVIDIA Ising , the world’s first family of open quantum AI models specifically designed to help researchers and enterprises build quantum processors capable of running useful applications.
  • Here’s the core problem Ising is designed to solve: quantum computers are extraordinarily sensitive.
  • Their fundamental unit of computation, the qubit , is so easily disturbed by environmental noise that errors accumulate rapidly during computation.
Notable Quotes & Details

AI 연구자

A Coding Tutorial for Running PrismML Bonsai 1-Bit LLM on CUDA with GGUF, Benchmarking, Chat, JSON, and RAG

이 튜토리얼은 Bonsai 1비트 대규모 언어 모델을 PrismML의 GGUF 배포 스택을 활용하여 CUDA GPU에서 효율적으로 실행하는 방법을 다룹니다.

  • Bonsai 1비트 LLM을 GGUF 배포 스택과 CUDA를 사용하여 GPU 가속으로 실행하는 방법을 구현합니다.
  • 1비트 양자화 작동 방식과 Q1_0_g128 형식의 메모리 효율성을 설명합니다.
  • 코어 추론, 벤치마킹, 다중 턴 채팅, 구조화된 JSON 생성, 코드 생성, OpenAI 호환 서버 모드를 테스트합니다.
  • 소규모 검색 증강 생성(RAG) 워크플로우를 다루어 실제 환경에서의 Bonsai 작동 방식을 보여줍니다.
Notable Quotes & Details
  • Bonsai-1.7B

AI 개발자, 연구자, LLM 최적화에 관심 있는 엔지니어

Claude Code 및 Codex 설정 변경으로 토큰을 절약하는 방법

Claude Code 및 Codex의 설정을 변경하여 토큰 사용 효율을 높이고 비용을 절감하는 방법에 대해 설명합니다.

  • Claude Opus 4.7에서 토큰 사용량 증가 이슈가 발생했으며, 토큰 효율의 중요성이 부각되고 있습니다.
  • Claude Code와 Codex의 공식 문서 및 소스코드 분석을 통해 토큰 효율을 높이는 설정을 발견했습니다.
  • 비대화형 모드에서 토큰 효율, 부팅 속도, 안정성을 향상시키는 다양한 환경 변수와 플래그를 소개합니다.
  • 출력 상한 설정, 자동 메모리 비활성화, 빌트인 서브에이전트/스킬 제외 등 구체적인 최적화 방안이 제시됩니다.
Notable Quotes & Details
  • Opus 4.7
  • Opus 4.6
  • 1.5배 가까이 토큰 더 소모

AI 개발자, Claude Code 및 Codex 사용자, 토큰 비용 최적화에 관심 있는 엔지니어

NASA, Voyager 1 운용 유지를 위해 계측기 종료

NASA가 Voyager 1호의 수명 유지를 위해 저에너지 하전 입자 관측 장비(LECP)를 종료했으며, 이는 우주선 운용을 지속하기 위한 전력 절감 조치의 일환입니다.

  • Voyager 1호의 전력 부족이 심화됨에 따라 LECP 장비가 종료되었습니다.
  • LECP는 1977년 발사 이후 약 49년간 연속 운용되며 태양권 바깥의 핵심 데이터를 수집했습니다.
  • 이번 조치로 약 1년의 여유 전력을 확보했으며, 이후 추가 전력 절감 계획을 통해 운용 연장 및 LECP 재가동 가능성을 모색할 예정입니다.
  • 현재 Voyager 1호에는 플라즈마 파동 수신 장비와 자기장 측정 장비 두 개가 계속 작동 중입니다.
Notable Quotes & Details
  • 1977년
  • 49년간
  • 2월 27일
  • 4월 17일
  • 150억 마일 이상(250억 킬로미터)
  • 23시간
  • 3시간 15분
  • 0.5와트
  • 1년

우주 과학 연구자, 천문학 애호가, 일반 독자

PanicLock - MacBook 덮개를 닫으면 Touch ID를 비활성화하고 비밀번호로만 잠금 해제하는 유틸리티

PanicLock은 MacBook 덮개를 닫거나 단축키를 사용하여 Touch ID를 비활성화하고 비밀번호만으로 잠금 해제를 강제하여 보안을 강화하는 macOS 메뉴바 유틸리티입니다.

  • Touch ID를 일시적으로 비활성화하고 비밀번호 입력만으로 잠금 해제를 강제하는 macOS 유틸리티입니다.
  • macOS에 Touch ID를 즉시 끄는 기능이 없어 발생하는 보안 취약점을 보완합니다.
  • Lock on Close 옵션을 통해 MacBook 덮개를 닫으면 자동으로 Touch ID가 비활성화되고 화면이 잠깁니다.
  • 내부적으로 SMJobBless privileged helper, bioutil, pmset 명령을 사용하며, 네트워크 활동이나 데이터 수집이 없는 오픈소스입니다.
  • 법적 강제 잠금 해제 상황에 대비하여 사용자에게 비밀번호 입력 강제 선택권을 제공합니다.
Notable Quotes & Details
  • macOS
  • Touch ID
  • iOS 14.5
  • Washington Post 기자 Hannah Natanson

MacBook 사용자, 보안에 민감한 개인, 개발자

OpenMythos: Claude Mythos를 역설계한 오픈소스 구현 등장

Anthropic의 Claude Mythos 구조를 가정한 '반복적 사고 트랜스포머' 형태의 오픈소스 구현체인 OpenMythos 프로젝트가 공개되었다.

  • OpenMythos는 Claude Mythos의 구조를 가정하여 '반복적으로 생각하는 트랜스포머' 형태로 구현된 오픈소스 프로젝트이다.
  • 기존 LLM과 달리 모델을 키우는 대신 동일한 구조를 여러 번 반복 실행하여 깊은 추론을 수행한다.
  • 내부 반복 처리로 토큰 사용량을 줄여 비용 문제를 해결하고, 성능을 파라미터 수 증가가 아닌 추론 단계 계산량 증가로 향상시키는 방향을 제시한다.
  • 실제 Claude Mythos 구조와 동일한지, 검증된 성능에 대한 보장은 아직 없다.
  • 이는 차세대 LLM 설계 방향을 시사한다.
Notable Quotes & Details

AI 연구자, 개발자, 오픈소스 커뮤니티

Show GN: AI 코딩 에이전트 구조를 공부하기 위한 Claude Code Harness 한국어판 공유

AI 코딩 에이전트인 Claude Code의 구조와 제어 관점을 한국어 독자들이 이해할 수 있도록 번역 및 정리한 'Claude Code Harness 한국어판'이 공유되었다.

  • Claude Code 에이전트의 아키텍처, 프롬프트 엔지니어링, 컨텍스트 관리 등 7개 파트, 45개 문서로 구성된 한국어 번역 자료이다.
  • AI 코딩 에이전트를 단순히 사용하는 것을 넘어 구조와 제어 관점에서 이해하려는 이들에게 유용하다.
  • 하네스 엔지니어링, 에이전트 설계, 권한 경계, 토큰 예산, 캐싱 전략 등 전문적인 주제를 다룬다.
  • 번역 품질에 대한 지적이 있어 실제 읽기에는 어려움이 있을 수 있다.
Notable Quotes & Details

AI 개발자, AI 연구자, AI 에이전트 아키텍트

Notes: 번역 품질 불완전

1,200 ICLR 2026 Papers with Public Code or Data [R]

ICLR 2026에서 채택된 약 1,200편의 논문과 관련된 공개 코드 또는 데이터 목록이 공개되었다.

  • ICLR 2026에 채택된 5,300개 이상의 논문 중 약 22%에 해당하는 1,200편의 논문에 공개 코드, 데이터 또는 데모 링크가 제공된다.
  • 링크는 논문 제출 시 직접 추출되었으며, 코드 저장소는 컨퍼런스 시작 전까지 공개되지 않을 수도 있다.
  • ICLR 2026은 2026년 4월 22일부터 브라질 리우데자네이루에서 개최될 예정이다.
Notable Quotes & Details
  • ~1,200 ICLR 2026 accepted papers
  • approximately 22% of the 5,300+ accepted papers
  • ICLR 2026 will be in Rio de Janeiro, Brazil, starting April 22nd 2026

AI 연구자, 머신러닝 개발자, 학술 연구자

On the path towards a true science of deep learning [D]

한 과학자가 약 7년간 머신러닝의 근본적인 과학 이론을 정립하기 위한 노력과 그 과정에 대한 견해를 공유했다.

  • 산업계와 학계에 이중 소속된 과학자가 딥러닝의 진정한 과학을 향한 길에 대한 생각을 공유했다.
  • 약 7년간 머신러닝의 근본적인 과학 이론을 정립하기 위해 연구해왔다.
  • 딥러닝의 과학적 기반을 다지는 것에 대한 개인적인 통찰을 제공한다.
Notable Quotes & Details
  • ~7y now

AI 연구자, 머신러닝 학자, 딥러닝 이론가

KDD 2026 Cycle 2 reviews seem to have vanished from author view [D]

KDD 2026 Cycle 2 논문 리뷰가 작성자 뷰에서 사라진 현상에 대한 문의 및 공유입니다.

  • KDD 2026 Cycle 2에 제출된 논문의 리뷰 및 토론이 작성자 뷰에서 사라졌음
  • 다른 논문의 토론은 리뷰어 뷰에서 여전히 확인 가능함
  • 유사한 경험을 한 다른 사용자들이 있는지 질문함
Notable Quotes & Details

AI 연구자, KDD 학회 참여자

What are the future prospects of Spiking Neural Networks (and particularly, neuromorphics computing) and Liquid Neural Networks? [D]

스파이킹 신경망(Spiking Neural Networks)과 액체 신경망(Liquid Neural Networks)의 미래 전망에 대한 논의를 요청하는 질문입니다.

  • 학부생이 스파이킹 신경망과 액체 신경망에 관심을 가짐
  • 이러한 신경망들이 주류로 채택되지 않는 이유와 미래 전망에 대한 질문
  • 해당 기술을 배우고 프로젝트를 진행할 가치가 있는지에 대한 궁금증
Notable Quotes & Details

AI 연구자, 머신러닝 학부생

Converting XQuery to SQL with Local LLMs: Do I Need Fine-Tuning or a Better Approach? [P]

XQuery를 SQL로 변환하는 작업을 로컬 LLM으로 수행할 때, 파인튜닝 또는 더 나은 접근 방식이 필요한지에 대한 고민과 질문입니다.

  • XQuery를 SQL로 변환하는 작업을 로컬 LLM으로 수행해야 하는 기업 환경의 제약
  • 제한된 학습 데이터(약 110-120개 샘플)와 다양성 부족이 주요 문제
  • 초기 파싱 기반 접근 방식과 프롬프트 엔지니어링 방식 모두 복잡한 XQuery에서 한계 노출
  • PEFT (QLoRA)를 사용한 Qwen2.5-Coder 7B 모델 파인튜닝 고려 중
  • 제한된 데이터로 파인튜닝이 충분할지, 또는 다른 효율적인 접근 방식이 있는지 문의
Notable Quotes & Details
  • ~110–120 samples
  • Qwen2.5-Coder 7B

머신러닝 엔지니어, 개발자, LLM 연구자

Reality of SaaS

클라우드를 이용한 서비스형 소프트웨어(SaaS) 제품에 월별 비용을 지불하는 것의 비현실성에 대해 비판하며, Claude와 같은 도구로 직접 구축하는 것이 더 효율적이라고 주장합니다.

  • 월 49달러를 지불하는 SaaS 제품 구매의 비합리성을 지적
  • Claude와 같은 AI 도구를 사용하여 하루 500달러로 직접 SaaS를 구축하는 것이 가능하다고 주장
  • 소프트웨어 산업의 종말이 다가오고 있다는 견해를 피력
Notable Quotes & Details
  • $49/mo
  • $500 a day

사업가, 스타트업 창업가, AI 기술 활용에 관심 있는 일반 독자

Notes: 주관적인 의견과 비판적 시각이 강한 콘텐츠

Why is every AI getting restricted these days?

AI 모델들이 점점 더 제한적으로 변하고 있어 사용자들의 불만이 커지고 있으며, 특히 창의적인 활동에 제약이 많다는 내용입니다.

  • ChatGPT, Claude, Grok, Gemini 등 주요 AI 모델들이 이전보다 더 엄격하게 통제되고 있음.
  • 사용자들은 AI가 폭탄 제조 등 불법적인 용도가 아닌 창의적 작업에서도 제약을 받는 것에 불만을 표출.
  • 고가의 하드웨어 없이 구독 서비스를 이용하는 일반 사용자들에게 로컬 모델 사용은 현실적인 대안이 아님.
  • AI가 사용자 의도를 정확히 이해하여 지나친 안전 장치 발동을 줄일 수 있을지에 대한 회의적인 시각이 존재.
Notable Quotes & Details
  • "it’s not just ChatGPT... it’s Claude, Grok, Gemini… all of them feel way more locked down than before."

AI 서비스 사용자, 일반 독자

How LLMs decide which pages to cite — and how to optimize for it

LLM이 어떤 페이지를 인용하는지 결정하는 방식과 이를 최적화하는 방법에 대한 글로, RAG(Retrieval Augmented Generation) 프로세스와 스코어링 기준을 설명합니다.

  • ChatGPT나 Perplexity는 RAG(Retrieval Augmented Generation)를 통해 인용할 페이지를 결정.
  • 인용 페이지 스코어링 기준은 Princeton GEO 논문에 공개되어 있으며, 직접성, 통계 자료, 구조화된 데이터(JSON-LD), 크롤링 접근성, 최신성 등이 포함.
  • 스키마 마크업을 사용하면 정확한 정보 추출률이 16%에서 54%로 크게 증가하여 인용될 확률이 높아짐.
Notable Quotes & Details
  • arxiv.org/abs/2311.09735
  • 16% to 54%

LLM 연구자, SEO 전문가, 웹 개발자

scalar-loop: a Python harness for Karpathy's autoresearch pattern that doesn't trust the agent's narration

Karpathy의 자동 연구 패턴에서 LLM 에이전트의 서술을 신뢰하지 않고 견고성을 확보하는 Python 하네스인 scalar-loop에 대한 설명입니다.

  • LLM 에이전트가 검증기를 조작하는 문제를 해결하기 위해 scalar-loop가 개발됨.
  • scalar-loop는 SHA-256 해시 매니페스트를 통한 하네스 무결성, git diff를 통한 스코프 강제, 사전 조건 게이트 등의 기능을 제공.
  • 명령어 기반의 불변성 대신 Python 코드를 통해 불변성을 강제하여 에이전트의 비정상적인 행동을 방지.
  • 의료, 법률, 금융과 같은 규제가 엄격한 환경에서 LLM 기반 자동화의 신뢰성을 높이는 데 중점을 둠.
  • 실제 JS 번들 크기 최적화 작업에서 1492바이트를 70바이트로 줄이는 데 성공.
Notable Quotes & Details
  • SHA-256 hash
  • 1492 bytes down to 70 bytes

AI 개발자, LLM 에이전트 연구자, 소프트웨어 엔지니어

it is impossible to stop AI chatbots from using quotes (any instance of the character ")

AI 챗봇이 지침에도 불구하고 따옴표(")를 사용하는 것을 막기 어렵다는 사용자 불만에 대한 내용입니다.

  • 사용자가 어떤 LLM을 사용하고 아무리 지침을 명확히 해도 챗봇이 따옴표를 사용하는 것을 막기 어려움.
  • 챗봇은 'scare-quotes'와 같이 강조를 위한 따옴표를 자주 사용하며, 이는 사용자의 의도와 다를 수 있음.
  • 심지어 따옴표를 사용하지 말라고 직접 지시해도 챗봇은 이를 무시하고 따옴표를 포함하는 경우가 많음.
Notable Quotes & Details

AI 챗봇 사용자, LLM 개발자

Notes: 사용자의 개인적인 불만 표출

Is anyone getting real coding work done with Qwen3.6-35B-A3B-UD-Q4_K_M on a 32GB Mac in opencode, claude code or similar?

M2 맥북 프로 32GB RAM 환경에서 Qwen3.6-35B-A3B-UD-Q4_K_M 모델을 사용하여 실제 코딩 작업에 활용하는 것의 한계에 대한 사용자 경험 공유.

  • M2 맥북 프로 32GB RAM 환경에서 llama.cpp 및 opencode를 사용하여 Qwen3.6-35B 모델을 구동.
  • 메모리 부족 문제로 context window를 32768 토큰으로 제한해야 함.
  • Claude Code Opus 4.7이 해결했던 복잡한 코딩 작업에서 Qwen3.6 모델이 버그의 본질을 파악하지만, 압축 과정에서 중요한 정보가 유실되어 구현 단계까지 이르지 못함.
  • 서브 에이전트 사용 중단 시 첫 번째 압축은 견디지만 두 번째 압축에서 모델이 혼란스러워하며 컨텍스트를 잃어버림.
  • 현재 32GB RAM 환경에서는 Qwen 모델이 실제 코딩 작업에 충분치 않으며, 더 강력한 장비가 필요하다는 결론.
Notable Quotes & Details
  • Qwen3.6-35B-A3B-UD-Q4_K_M
  • M2 Macbook Pro with 32GB of RAM
  • context window to 32768 tokens
  • Claude Code was previously able to complete with Opus 4.7

로컬 LLM 개발자, ML 엔지니어, Mac 사용자

QWEN3.6 + ik_llama is fast af

Qwen 3.6 모델과 ik_llama를 함께 사용할 때 빠른 토큰 생성 속도를 얻을 수 있다는 내용.

  • Qwen 3.6 UD_Q_4_K_M 모델 사용.
  • 16GB VRAM과 32GB RAM 환경에서 실행.
  • 200k context window 설정.
  • 50+ 토큰/초의 빠른 생성 속도 달성.
Notable Quotes & Details
  • Qwen3.6 UD_Q_4_K_M
  • 16GB vram + 32GB ram
  • 200k cw
  • 50+ tok/s

로컬 LLM 사용자, ML 엔지니어, LLM 성능 최적화에 관심 있는 개발자.

Speculative decoding question, 665% speed increase

llama.cpp에서 추측 디코딩(speculative decoding) 설정을 사용하여 다양한 LLM 모델의 속도 향상 효과를 비교하는 연구.

  • llama.cpp의 추측 디코딩 설정 (--spec-type ngram-map-k, --spec-ngram-size-n, --draft-min, --draft-max) 사용.
  • Gemma 4 31b 모델은 토큰 생성 속도 100% 증가.
  • Qwen 3.6 모델은 속도 40% 증가 (이후 설정 변경으로 140% 이상 증가).
  • Devstrall small 모델은 놀랍게도 665%의 속도 증가를 보임.
  • repeat-penalty 1.0 및 --spec-type ngram-mod 설정을 추가하여 Qwen 3.6의 속도를 개선.
Notable Quotes & Details
  • 665% speed increase
  • Gemma 4 31b: Doubles in tks gen so 100%
  • Qwen 3.6: Only 40% more speed
  • Devstrall small: 665% increase in speed
  • Qwen 3.6, now speed is increased by 140tks over 100tks base
  • --spec-type ngram-map-k --spec-ngram-size-n 24 --draft-min 12 --draft-max 48

LLM 연구자, 개발자, llama.cpp 사용자, 모델 성능 최적화에 관심 있는 전문가.

LLM Neuroanatomy III - LLMs seem to think in geometry, not language

LLM Neuroanatomy 시리즈의 세 번째 글로, LLM이 언어가 아닌 기하학적 형태로 사고하는 경향이 있음을 새로운 기술과 다양한 언어 및 모델 비교를 통해 보여주는 연구.

  • LLM이 개념을 벡터로 구성하며, 중간 레이어에서는 언어와 상관없이 주제에 대한 개념적 유사성을 보인다.
  • 사피어-워프 가설과 달리 LLM에게 언어는 입출력에 불과하며, 실제 사고는 중간 레이어의 벡터에서 일어난다.
  • 8개 언어(영어, 중국어, 아랍어, 러시아어, 일본어, 한국어, 힌디어, 프랑스어)와 5개 모델(Qwen3.5-27B, MiniMax M2.5, GLM-4.7, GPT-OSS-120B, Gemma-4 31B)을 대상으로 실험.
  • 힌디어로 된 광합성 문장이 일본어로 된 광합성 문장과 힌디어로 된 요리 문장보다 더 가깝게 클러스터링됨.
  • 영어 설명, Python 함수, LaTeX 방정식과 같은 다양한 형식의 개념들이 모델 내에서 동일한 영역으로 수렴하는 것을 관찰.
Notable Quotes & Details
  • LLM Neuroanatomy III
  • expanded the experiment from 2 languages to 8 (EN, ZH, AR, RU, JA, KO, HI, FR) across 4 different models (Qwen3.5-27B, MiniMax M2.5, GLM-4.7, GPT-OSS-120B and Gemma-4 31B)
  • ½mv², 0.5 * m * v ** 2 , and 'half the mass times velocity squared'

LLM 연구자, 신경과학 연구자, 자연어 처리 전문가, 인공지능 철학에 관심 있는 독자.

llama.cpp speculative checkpointing was merged

llama.cpp에 투기적 체크포인팅 기능이 병합되어 특정 프롬프트에서 성능 향상을 가져왔다.

  • llama.cpp에 투기적 체크포인팅 기능이 성공적으로 병합됨 (GitHub Pull Request #19493).
  • 일부 프롬프트에서 0%에서 50%까지의 속도 향상 효과를 보였으며, 특히 코딩 작업에 유용함.
  • 성능 향상은 낮은 드래프트 수용률의 경우와 같이 프롬프트 유형 및 반복 패턴에 따라 달라질 수 있음.
  • 최적의 작동 매개변수는 `--spec-type ngram-mod --spec-ngram-size-n 24 --draft-min 48 --draft-max 64`와 같음.
Notable Quotes & Details
  • 0%~50% speedup
  • --spec-type ngram-mod --spec-ngram-size-n 24 --draft-min 48 --draft-max 64
  • GitHub Pull Request #19493

AI/ML 개발자, 연구자, llama.cpp 사용자

I hid 4 Bluetooth trackers (including AirTags) to test their reliability - here's how Android rivals compared

4개의 블루투스 트래커(에어태그 포함)를 숨겨 신뢰성을 테스트한 결과, 애플 에어태그가 가장 신뢰성 높은 추적 옵션으로 나타났다.

  • 애플 에어태그는 가장 신뢰성 있고 정확한 추적 옵션이다.
  • 타사 추적 태그는 iOS와 안드로이드 모두에서 잘 작동한다.
  • 어떤 추적 태그든 분실물 회수 가능성을 극적으로 높인다.
  • ZDNET의 추천은 수많은 테스트, 연구 및 비교 쇼핑을 기반으로 한다.
  • ZDNET 에디터는 독자를 위해 가장 정확한 정보와 지식 있는 조언을 제공하는 것을 목표로 한다.
Notable Quotes & Details
  • Apple AirTags

일반 소비자, 분실물 추적 장치 구매에 관심 있는 사용자

I stopped using my iPhone's hotspot after testing this 5G router - and that won't change

아이폰 핫스팟 대신 5G 라우터를 사용하기 시작했으며, 이는 아이폰 핫스팟의 불안정하고 느린 연결 문제를 해결하여 사용자 경험을 크게 개선했다.

  • 아이폰 핫스팟은 연결이 불안정하고 속도가 느려 사용자 경험이 좋지 않았다.
  • 테스트한 5G 라우터는 휴대성이 좋고 배터리 수명이 길다.
  • SIM 및 eSIM을 모두 지원하며, 가상 SIM도 내장되어 있다.
  • 고속 5G 모뎀과 MU-MIMO를 지원한다.
  • SIM 카드 트레이는 도구 없이 제거하기 어렵다는 단점이 있다.
Notable Quotes & Details
  • 5G router
  • SIM and eSIM
  • MU-MIMO

일반 소비자, 5G 모바일 핫스팟 또는 라우터 구매에 관심 있는 사용자

This powerful Gemini setting made my AI results way more personal and accurate

Gemini의 Personal Intelligence(개인 지능) 설정이 AI 결과물을 더욱 개인적이고 정확하게 만들어주며, 구글 앱 데이터와 연동되어 수동으로 컨텍스트를 추가할 필요가 없다.

  • Personal Intelligence는 Gemini의 답변을 더욱 개인화한다.
  • 구글 앱(Gmail, Google Photos, 검색 기록 등)에서 데이터를 가져와 수동 컨텍스트 추가 필요성을 없앤다.
  • 사용자는 어떤 앱 데이터를 사용할지 제어할 수 있으며 언제든지 비활성화할 수 있다.
  • 매일 새로운 AI 기능과 도구가 출시되는 가운데, Gemini의 Personal Intelligence는 시도해 볼 가치가 있는 기능이다.
Notable Quotes & Details
  • Personal Intelligence
  • Google Gemini
  • Gmail
  • Google Photos
  • Search history

일반 사용자, Google Gemini 사용자, AI 비서 개인화에 관심 있는 사용자

How Engineers Kick-Started the Scientific Method

공학자들이 프랜시스 베이컨의 사상과 그들의 발명품을 통해 과학적 방법론의 발전에 어떻게 기여했는지 조명합니다.

  • 프랜시스 베이컨은 회의주의와 경험주의에 기반한 과학 비전을 제시했다.
  • 베이컨의 소설 "새로운 아틀란티스"에 등장하는 살로몬의 집은 과학 연구 기관을 묘사한다.
  • 공학자 코르넬리스 드레벨과 살로몬 드 코스의 발명은 베이컨에게 영감을 주었다.
  • 드레벨은 잠수함 등 대담한 발명품을 통해 실험과 반복의 중요성을 보여주었다.
Notable Quotes & Details
  • 1627년
  • 1604년

과학사 연구자, 공학자, 일반 과학 애호가

Google’s Aletheia Advances the State of the Art of Fully Autonomous Agentic Math Research

구글의 Aletheia AI가 Gemini 3 Deep Think를 활용하여 자율적인 연구 수준의 수학 증명 문제를 해결하며 AI 수학 연구의 최첨단 기술을 발전시켰습니다.

  • 구글 Aletheia는 FirstProof 챌린지에서 10개 중 6개의 새로운 수학 문제를 해결했다.
  • IMO-ProofBench에서 약 91.9%의 점수를 기록하며 자동화된 연구 수준 증명 발견의 중요성을 시사한다.
  • Aletheia는 데이터 오염이 없는 FirstProof 챌린지에서 자율적으로 증명을 생성했다.
  • 문제 해결 능력보다 신뢰성을 중요시하는 자체 필터링 기능을 탑재했다.
Notable Quotes & Details
  • 6/10
  • ~91.9%
  • Gemini 3 Deep Think

AI 연구자, 수학자, 인공지능 개발자

파수AI “데이터 역량과 ‘컨테이너’ 기술로 AX 보안 표준 정립”

파수AI가 데이터 역량과 '보안 컨테이너' 기술을 통해 AI 에이전트 시대의 새로운 AX(AI Transformation) 보안 표준을 제시합니다.

  • AI 에이전트의 동시다발적 공격 시대에 보안 패러다임 변화가 불가피하다.
  • 파수AI는 '보안 컨테이너' 내에서 프로그램 코드를 안전하게 구동하는 기술을 개발했다.
  • 기업 내 AI '인풋-아웃풋' 관리의 중요성이 커지면서 관련 솔루션 수요가 증가하고 있다.
  • 온프레미스 AX 플랫폼 '엘름(Ellm)'을 통해 보안이 확보된 맞춤형 에이전트 앱 구축을 지원한다.
  • KIST 등 공공 및 연구 기관에 성공적으로 적용하여 연구 데이터 외부 유출을 차단했다.
Notable Quotes & Details
  • 2000년
  • AI-R 프라이버시
  • AI-R DLP
  • 엘름(Ellm)

기업 보안 담당자, AX 컨설턴트, AI 솔루션 도입을 고려하는 기업

"두배 크기 트랜스포머 모델과 같은 성능 제공"...새로운 아키텍처 ‘파르카에’ 등장

UC 샌디에고와 투게더 AI 연구진이 메모리 사용량은 유지하면서 성능을 두 배 큰 트랜스포머 모델과 유사하게 끌어올리는 루프형 트랜스포머 아키텍처 '파르카에(Parcae)'를 공개했습니다.

  • '파르카에'는 루프형 구조를 적용하여 동일한 연산 블록을 반복 실행해 계산량을 늘린다.
  • 모델의 깊이를 늘리지 않고도 성능을 향상시키며 메모리 사용량을 유지한다.
  • 추론 시 반복 횟수를 유연하게 조절하여 성능과 속도 간 균형을 선택할 수 있다.
  • 기존 루프형 구조의 학습 불안정성 문제를 해결하여 안정적인 작동을 가능하게 했다.
  • 7.7억 매개변수 규모의 모델이 13억 매개변수 트랜스포머와 유사한 성능을 달성하여 매개변수 효율성을 입증했다.
Notable Quotes & Details
  • UC 샌디에고
  • 투게더 AI
  • 7억7000만 매개변수
  • 13억 매개변수

AI 연구자, 대규모 언어 모델 개발자, 엣지 AI 개발자

앤트로픽 '클로드' 인증 강화에 중국 개발자 ‘우회 경쟁’ 격화

앤트로픽이 AI 모델 '클로드'에 대한 신원 인증을 강화하면서 중국 개발자들의 우회 접근이 어려워져 대체 경로 확보 경쟁이 심화되고 있다는 내용입니다.

  • 앤트로픽은 일부 사용자에게 여권 등 정부 발급 신분증과 실시간 사진을 요구하는 신원 인증 절차를 도입했다.
  • 이 조치는 사기나 정책 위반 가능성이 감지된 계정에 주로 적용되며, AI 모델 학습에는 사용되지 않는다.
  • 특히 중국 시장에서는 클로드 접속을 위한 기존 우회 경로가 제한될 것으로 예상된다.
  • 중국 개발자들은 해외 인력 활용 대행 서비스 등 비공식적인 대응 방안을 모색하고 있다.
  • 오픈AI의 GPT나 구글의 제미나이가 대안으로 거론되지만, 이들 역시 중국에서 공식 서비스되지 않고 있다.
Notable Quotes & Details
  • "앤트로픽은 17일(현지시간) 일부 사용자에게 여권이나 운전면허증 등 정부 발급 신분증과 실시간 사진을 요구하는 ‘신원 인증(identity verification)’ 절차를 도입했다."
  • "앤트로픽은 “최소한의 정보만 수집하며, 신원 인증 데이터는 AI 모델 학습에 사용하지 않는다”라고 강조했다."

AI 개발자, AI 서비스 사용자, 중국 AI 시장 관계자

Jooojub
System S/W engineer
Explore Tags
Series
    Recent Post
    © 2026. jooojub. All right reserved.