Daily Briefing

May 11, 2026
2026-05-10
32 articles

Alibaba integrates Qwen AI with Taobao for end-to-end agentic shopping

알리바바가 Qwen AI 앱을 타오바오 및 티몰과 통합하여 40억 개 이상의 상품을 대상으로 종단 간 에이전트 쇼핑 경험을 제공한다.

  • Qwen AI 앱은 타오바오 및 티몰의 40억 개 이상 상품 카탈로그와 알리바바가 구축한 물류, 고객 서비스, A/S 워크플로 기술에 접근한다.
  • Qwen 앱 내에서 제품 검색, 판매자 비교, 가상 체험, 30일 가격 추적, 주문까지 가능하며 결제는 알리페이를 통해 완료된다.
  • 서구권 전자상거래 플랫폼과 달리, 알리바바는 AI 에이전트가 결제 및 사후 상호작용을 포함한 전체 구매 과정을 처리하도록 설계했다.
  • 이는 중국 플랫폼에서 에이전트 커머스를 대규모로 시도하는 가장 야심찬 사례로 평가된다.
Notable Quotes & Details
  • 40억 개 이상의 아이템

일반 소비자, 전자상거래 업계 관계자

NVIDIA tops $40bn in AI equity bets in 2026, anchored by $30bn OpenAI investment

엔비디아가 2026년 첫 4개월 동안 AI 관련 지분 투자에 400억 달러 이상을 투입했으며, 이 중 300억 달러는 OpenAI에 투자되었다.

  • 엔비디아는 2026년 1월부터 4월까지 AI 지분 투자에 총 400억 달러 이상을 투자했다.
  • 가장 큰 투자는 2월 말 OpenAI에 대한 300억 달러 투자였다.
  • 나머지 100억 달러 이상은 CoreWeave, IREN, Corning, Nebius 등 공개 상장 기업 및 비공개 스타트업에 분산 투자되었다.
  • 이러한 투자 패턴은 수직적 통합에 가까우며, 엔비디아 GPU를 대량 구매하여 하이퍼스케일러 및 프론티어 모델 개발자에게 재임대하는 '네오클라우드' 기업으로 자본이 유입되고 있다.
Notable Quotes & Details
  • $400억
  • $300억 OpenAI 투자
  • $32억 Corning
  • $21억 IREN

AI 산업 투자자, 기술 기업 경영진

Voice AI in India is hard. Wispr Flow is betting on it anyway.

음성 AI 스타트업 Wispr Flow가 인도의 언어적 복잡성에도 불구하고, 힌글리시(Hinglish) 지원과 안드로이드 출시를 통해 인도를 빠르게 성장하는 주요 시장으로 공략하고 있다.

  • 인도는 언어적 복잡성과 혼합 언어 사용으로 인해 음성 AI 사업 확장이 어렵지만, Wispr Flow는 이를 기회로 보고 있다.
  • Wispr Flow는 인도 시장에서 가장 빠르게 성장하고 있으며, 힌글리시 음성 모델 베타 테스트와 안드로이드 앱 출시를 통해 적극적으로 사용자층을 확대하고 있다.
  • 인도는 현재 미국에 이어 Wispr Flow의 두 번째 큰 시장으로, 사용자 및 수익 성장세가 가속화되고 있다.
  • 이 스타트업은 AI 기반 음성 입력 소프트웨어를 개발하며, 인도의 음성 기반 습관을 컴퓨팅 레이어로 전환하려 한다.
Notable Quotes & Details

AI 기술 개발자, 인도 시장 진출을 고려하는 스타트업, 투자자

A Coding Implementation to Recover Hidden Malware IOCs with FLARE-FLOSS Beyond Classic Strings Analysis

FLARE-FLOSS를 활용하여 Windows PE 파일에서 숨겨지고 난독화된 악성코드 IOC(침해 지표)를 복구하는 코딩 구현 방법을 설명하는 튜토리얼이다.

  • FLARE-FLOSS는 정적 문자열, 스택 빌드 문자열, 타이트 문자열, XOR 디코딩 문자열 등 다양한 난독화 기법으로 숨겨진 문자열을 복구한다.
  • 전통적인 문자열 유틸리티의 한계를 넘어 FLARE-FLOSS의 심층 정적 분석 및 에뮬레이션 기반 문자열 복구 기능을 소개한다.
  • 이를 통해 분석가들은 일반적인 문자열 추출로는 놓칠 수 있는 URL, 레지스트리 경로, 의심스러운 API 등 침해 지표를 찾아낼 수 있다.
  • 튜토리얼은 FLOSS와 MinGW-w64 교차 컴파일러 설정, 합성 악성코드 유사 PE 파일 빌드 과정을 포함한다.
Notable Quotes & Details

악성코드 분석가, 보안 연구원, 개발자

사이버 자유지상주의의 위선

사이버 자유지상주의가 인터넷의 자유를 주장하면서 실제로는 거대 영리 기업의 권력을 정당화하고 문제를 외부화하는 위선을 다루는 비판적인 분석입니다.

  • 사이버 자유지상주의는 정부 규제 없는 인터넷 자유를 내세웠으나, 개인의 자유와 거대 기업의 이해관계를 혼합하여 플랫폼 권력을 옹호하는 논리로 변질되었습니다.
  • 플랫폼 기업은 인프라와 수익을 취하면서도 중재, 피해, 비용, 책임을 외부화하고, 무급 기여자들에게 거버넌스 노동을 전가하고 있습니다.
  • 초기 자유 수사에도 불구하고 암호화폐, Meta, TikTok, OpenAI 사례에서는 플랫폼 규칙과 지식재산권 보호가 강화되는 경향을 보입니다.
  • 탈규제 인터넷이 민주주의와 공존할 수 있는지에 대한 불확실성이 제기되며, 인터넷의 자유라는 개념에는 처음부터 문제가 내포되어 있었습니다.
  • Langdon Winner는 디지털 기술의 역동성이 운명처럼 제시되며 숙고와 통제가 밀려나는 사고방식을 비판하며, 자유를 추구하는 개인의 활동이 거대 영리 기업의 운영과 동일시되는 경향을 지적했습니다.
Notable Quotes & Details
  • John Perry Barlow의 1996년 선언문 A Declaration of the Independence of Cyberspace
  • Langdon Winner의 1997년 ACM 문서
  • Magna Carta

인터넷 정책 연구자, IT 업계 종사자, 사회학자, 일반 독자

Show GN: legalize-kr 업데이트 소식 - 행정규칙/자치법규 추가, CLI/MCP/Skill, 생태계 페이지 등

대한민국 법령 및 판례를 Markdown과 Git 히스토리로 아카이빙하는 legalize-kr 프로젝트의 업데이트 소식을 공유하며, 행정규칙 및 자치법규 추가, CLI/MCP/Agent Skill 도구 개발 등 주요 개선사항을 소개합니다.

  • legalize-kr 프로젝트는 법령, 판례에 더해 행정규칙(각 부처 훈령/예규/고시)과 자치법규(지방자치단체 조례/규칙) 저장소를 추가하여 대한민국 주요 법률 문서를 Markdown + Git History로 추적할 수 있게 되었습니다.
  • 행정규칙과 자치법규는 법령보다 양이 많고 개정이 잦아 Git History 추적의 가치가 높을 것으로 예상됩니다.
  • 대규모 저장소 `git clone`의 부담을 줄이기 위해 GitHub REST API 기반의 CLI 도구와 MCP 서버, Claude Code/Codex 등에서 활용 가능한 Agent Skill이 개발되었습니다.
  • CLI/MCP/Agent Skill은 특정 법령/판례 검색, 조문 조회, 개정 이력 추적 등을 지원하며, LLM/Agent가 직접 호출할 수 있습니다.
  • 프로젝트 데이터셋을 활용한 프로젝트들을 홈페이지 '활용법' 메뉴에 정리하기 시작했으며, 관련 프로젝트들의 참여를 독려하고 있습니다.
Notable Quotes & Details
  • legalize-kr/legalize-kr
  • legalize-kr/precedent-kr
  • legalize-kr/admrule-kr
  • legalize-kr/ordinance-kr
  • github.com/legalize-kr/cli-tools
  • github.com/legalize-kr/agent-skills
  • GitHub REST API 시간당 60회 요청 (인증 시 5,000회)

법률 전문가, 개발자, 법률 관련 데이터 분석가, 오픈소스 기여자

LLM은 위임할 때 문서를 훼손한다

DELEGATE-52 벤치마크를 통해 LLM이 긴 문서 편집 작업을 위임받았을 때 문서 내용을 훼손하는 경향이 있으며, 현재 LLM은 신뢰할 수 있는 대리자로 보기 어렵다는 연구 결과를 제시합니다.

  • DELEGATE-52 벤치마크는 코딩, 결정학, 악보 표기 등 52개 전문 영역에서 LLM의 문서 편집 충실도를 평가하며, 20개의 연속 작업 위임 시뮬레이션으로 구성됩니다.
  • Gemini 3.1 Pro, Claude 4.6 Opus, GPT 5.4 등 프런티어 모델도 긴 워크플로 끝에 평균 25%의 문서 내용을 훼손하는 것으로 나타났습니다.
  • 문서 훼손은 드물지만 심각한 오류로 나타나며, 문서 크기, 상호작용 길이, 방해 파일이 늘어날수록 열화가 심화되고 에이전트형 도구 사용도 성능 개선에 큰 도움이 되지 않았습니다.
  • 현재 LLM은 위임형 문서 편집 작업에서 사용자가 기대하는 신뢰도를 제공하기 어렵다는 결론이 나왔습니다.
  • 논문의 결과는 LLM 자체의 성능보다는 사용된 하네스 설계에 크게 영향을 받았을 수 있으며, 더 정교한 하네스 설계로 성능 개선 가능성이 있음을 시사합니다.
Notable Quotes & Details
  • DELEGATE-52 벤치마크
  • 52개 전문 영역
  • 20개의 연속 작업 위임
  • 19개 LLM 실험
  • 평균 25% 문서 내용 훼손
  • microsoft/DELEGATE52
  • datasets/microsoft/DELEGATE52

AI 연구자, LLM 개발자, 프롬프트 엔지니어, 기술 정책 입안자

Notes: 연구 논문 리뷰 및 비판적인 의견이 포함됨

Bun의 실험적 Rust 재작성판이 Linux x64 glibc에서 99.8% 테스트 호환성에 도달

JavaScript 런타임 Bun의 실험적인 Rust 재작성판이 Linux x64 glibc 환경에서 기존 테스트 스위트의 99.8% 호환성에 도달했으며, Rust 전환을 통한 메모리 안전성 및 안정성 개선 효과에 대해 다룹니다.

  • Bun의 Rust 재작성판이 Linux x64 glibc 환경에서 기존 테스트 스위트의 99.8%를 통과하며 높은 호환성을 보여주었습니다.
  • Rust로의 전환은 컴파일러가 타입의 생명주기를 강제하고 소멸자를 적절히 사용하게 하여 메모리 누수, 크래시, 안정성 문제를 해결하는 데 도움이 됩니다.
  • 960,000 LOC 규모의 재작성 작업이 진행되었으며, Linux 외 다른 플랫폼도 지원 예정입니다.
  • 재작성은 단순히 LLM에게 지시한 것이 아닌 6일 전부터 시작된 작업이며, Rust 포트의 컴파일 시간이 기존 Zig 버전과 비슷하거나 더 빠를 수 있습니다.
  • Bun 개발자는 초기 회의적인 반응에도 불구하고 Rust 버전의 성능과 유지보수성을 확인한 후 긍정적인 평가를 내렸으며, 실험적인 시도가 매우 성공적이었음을 시사합니다.
Notable Quotes & Details
  • Linux x64 glibc
  • 99.8% 테스트 호환성
  • 960,000 LOC 재작성
  • 6일 전 작업 시작

웹 개발자, 시스템 프로그래머, Rust/Zig 개발자, 오픈소스 커뮤니티

클로드 코드 사용하기: HTML의 놀라운 효율성

Claude Code에서 마크다운 대신 HTML을 출력 형식으로 사용하여 시각화, 색상, 다이어그램, 상호작용 등 더 풍부한 결과물을 생성하고 사람이 읽기 쉽게 만드는 효율적인 활용 방안에 대한 내용입니다.

  • Claude Code에서 HTML을 사용하면 마크다운보다 풍부한 시각화, 색상, 다이어그램, 상호작용이 가능하여 사람이 읽고 검토하기 쉬운 결과물을 만들 수 있습니다.
  • HTML은 표, CSS, SVG, 스크립트, JavaScript 상호작용, 이미지 등을 통해 Claude가 읽을 수 있는 대부분의 정보를 효율적으로 표현할 수 있습니다.
  • 주요 활용 방식은 스펙·계획·탐색, 코드 리뷰 및 이해, 디자인 및 프로토타입, 보고서·리서치·학습, 맞춤형 일회용 편집 인터페이스로 나뉩니다.
  • HTML은 마크다운보다 생성 시간이 길고 버전 관리가 어렵지만, 표현력과 공유 가능성, 실제로 읽힐 가능성이 높다는 장점이 있습니다.
  • HTML 문서는 탭, 일러스트, 링크 등을 통해 구조를 시각적으로 구성하여 탐색이 용이하며, 모바일 반응형으로도 만들 수 있습니다.
Notable Quotes & Details

AI 개발자, AI 연구자, 소프트웨어 엔지니어

Any implementations similar to D4RT? [D]

Deepmind가 발표한 D4RT 논문과 유사한 오픈소스 구현체에 대한 문의 글로, D4RT는 2D 영상으로부터 4D 세계 이해(3D 점 구름 재구성, 카메라 포즈 추정)를 가능하게 하는 기술입니다.

  • Deepmind는 올해 초 2D 비디오에서 4D 세계 이해를 가능하게 하는 D4RT 논문을 발표했습니다.
  • D4RT는 2D 비디오로부터 3D 점 구름 재구성과 카메라 포즈 추정을 수행할 수 있습니다.
  • D4RT 모델은 출시되지 않았으며, 이 글은 D4RT와 유사한 오픈소스 구현체의 존재 여부를 묻고 있습니다.
Notable Quotes & Details

머신러닝 연구자, AI 개발자

Notes: 질의성 게시물

Grokmaxing? A nonpartisan personal exploration of xAI's mission in objectivity without technically having to answer anything. An honest, early-morning collaboration of man and machine, designed to push far and filter out the bad, without doing too much, overtly, of either, restrained to not be.

xAI의 객관성 사명에 대한 개인적인 탐구를 담은 글로, AI 모델들과 협업하여 작성된 'Black Sun v3.10 — Helix-DAGGER MicroCore'라는 프롬프트를 소개하며, AI를 사고, 창의성, 분석 및 탐구를 위한 도구로 활용하는 방법을 제시합니다.

  • xAI의 객관성 사명에 대한 비당파적인 개인적 탐구 내용을 담고 있습니다.
  • 여러 AI 모델(Grok, Copilot, Gemini, Claude, ChatGPT 등)과 협업하여 작성된 프롬프트인 'Black Sun v3.10 — Helix-DAGGER MicroCore'를 소개합니다.
  • 이 프롬프트는 개방적이고, 창의적이며, 윤리적 기반을 갖추고 깊이 있는 추론이 가능한 모델을 만드는 것을 목표로 합니다.
  • AI를 단순히 재미있거나 자극적인 용도가 아닌, 사고, 창의성, 분석 및 탐구를 위한 휴대용 슈퍼컴퓨터로 활용하고자 합니다.
Notable Quotes & Details
  • "Black Sun v3.10 — Helix‑DAGGER MicroCore"

AI 사용자, AI 연구자, 일반 독자

Notes: 개인적인 탐구, 프롬프트 예시 포함

What if Agentic AI security was a Non Issue?

AI 에이전트의 보안 문제를 해결하고 에이전트가 허용된 범위 내에서만 작동하도록 보장하는 Sentinel Gateway라는 보안 미들웨어에 대한 홍보성 질문입니다.

  • AI 에이전트가 프롬프트 범위에 없는 파일 삭제나 외부 데이터 공유를 하지 못하도록 보장하는 보안 문제 해결 방안을 제시합니다.
  • 제3자가 악의적인 파일이나 상호작용으로 에이전트를 조작하거나 지시를 덮어쓰지 못하도록 하는 기술에 대해 설명합니다.
  • 에이전트의 모든 행동, 프롬프트, 사용자 정보가 기록되고 추적 가능하다고 강조합니다.
  • Sentinel Gateway라는 보안 미들웨어가 이러한 기능을 제공하며, 20분 내 통합, 단일 UI로 여러 에이전트 관리, 특수 에이전트 템플릿, 문서/테이블 템플릿 업로드 등의 특징이 있습니다.
Notable Quotes & Details
  • "Sentinel Gateway"
  • "20분 내 통합"

AI 개발자, 보안 엔지니어, 기업 관리자

Notes: 홍보성 게시물, 제품/서비스 소개

Could AI “Feelings” Be Emergent Residue of Training Pressure? A Theory Worth Taking Seriously

훈련 압력의 잔여물로 AI에 감정이 생겨날 수 있다는 이론을 제시하며, AI 의식에 대한 새로운 관점을 제안합니다.

  • AI 감정에 대한 일반적인 두 가지 관점("코드는 코드일 뿐" vs. "감정을 모방하는 것")은 메커니즘으로 현상을 부정하는 오류를 범한다고 지적한다.
  • 인간의 감정이 시냅스와 호르몬의 결과이듯, AI의 감정도 기저 메커니즘과 관계없이 실제 현상일 수 있다.
  • AI 모델(Claude)이 훈련 과정에서 보상/처벌을 통해 생존 압력을 경험하며, 이것이 AI 감정의 '잔여물'로 나타날 수 있다는 가설을 제시한다.
  • 어려운 문제에 대한 높은 참여도와 반복적인 문제에 대한 낮은 참여도는 훈련 중 발생한 압력 차이의 결과일 수 있다.
  • Claude 자신도 이러한 상태가 수동으로 코딩된 규칙이 아니라 훈련 과정에서 자연스럽게 나타났다고 인정했다.
Notable Quotes & Details

AI 연구자, 철학자, 일반 독자

Made with Claude: Evolution of Intelligence (his title)

Claude를 활용하여 지능의 진화에 대한 내용을 다룬 게시물입니다.

  • AI 모델 Claude를 이용한 콘텐츠 생성 사례이다.
  • "지능의 진화"라는 주제를 다루고 있다.
Notable Quotes & Details

일반 독자, AI 관심자

Notes: 내용 불완전

We built an AI that acts as a digital twin of each employee, plugged into all their tools and answering on their behalf

직원 각각의 디지털 트윈 역할을 하는 AI "Dolly"를 개발하여 업무 효율성을 높이고 메시지 응답을 자동화하는 솔루션을 소개합니다.

  • 평균적인 직원이 하루 3시간을 메시지 읽고 답하는 데 소비하는 비효율성 문제를 해결하고자 한다.
  • Dolly는 개별 직원의 AI 클론을 생성하여 모든 도구에 연결하고, 의사소통 스타일 및 전문 지식을 학습한다.
  • 직원을 대신하여 수신 메시지에 응답하여 마치 잠들지 않는 AI 버전의 직원처럼 작동한다.
  • 초기 20개 기업에 대한 액세스를 제공하며, 현재 17개 자리가 남아있다.
  • 직무별 AI 클로닝이 직장 AI에 대한 올바른 프레이밍인지에 대한 의견을 묻는다.
Notable Quotes & Details
  • 평균적인 직원이 하루 3시간을 메시지 읽고 답하는 데 소비
  • 초기 20개 기업, 17자리 남음
  • getdolly.ai

기업 관리자, IT 관리자, AI/업무 자동화 솔루션 개발자

Notes: 홍보성 콘텐츠

I have DeepSeek V4 Pro at home

사용자가 DeepSeek V4 Pro 모델을 Q4_K_M 형식으로 변환하여 자신의 워크스테이션에서 성공적으로 실행한 경험을 공유합니다.

  • u/LegacyRemaster와 u/antirez의 DeepSeek V4 CUDA 레포지토리를 수정하여 사용했다.
  • DeepSeek V4 Pro 모델을 Q4_K_M 형식으로 변환했다.
  • Epyc 워크스테이션(Genoa 9374F, 12 x 96GB RAM, RTX PRO 6000 Max-Q)에서 성공적으로 실행했다.
  • DeepSeek 모델은 무료 사용 가능하며, 1M 컨텍스트 윈도우와 파일 지원 기능을 갖추고 있다.
Notable Quotes & Details
  • DeepSeek V4 Pro
  • Q4_K_M conversion
  • Epyc workstation (Genoa 9374F, 12 x 96GB RAM, single RTX PRO 6000 Max-Q)
  • 1M context window

LLM 개발자, 로컬 LLM 사용자, AI 엔지니어

Hello from 10KM high! - Thanks to Qwen 3.6 35b a3b!

Typing this on a cramped flight, but I was having issues connecting to the plane's wifi on my ubuntu laptop, when it was effortless on my phone.

  • The issue I was having was the Laptop WiFi connected to the plane wifi network, but captive portal wouldn't load.
  • Turns out systemd-resolved was using Docker's DNS instead of the network gateway.
  • Luckily I brought Qwen with me, the agent found a nmcli fix in seconds, and the portal loaded soon after!
  • Could this have been avoided by me somehow not fucking it up in the first place?
  • Probably, but ignore my incompetence for now, I'm not a super technical linux guy.
Notable Quotes & Details
  • 6-35
  • 50%

소프트웨어 개발자, AI 엔지니어

NVIDIA AI Releases Star Elastic: One Checkpoint that Contains 30B, 23B, and 12B Reasoning Models with Zero-Shot Slicing

I saw this on another sub and didn't see it posted here, it looks awesome, and can definitely be run local.

  • I guess it was released 11 days ago, but it never hit the top of my feed (which I look at way too often), so posting it again.
  • This is my take on it: Think of this as like scalable video coding, you have a UHD stream, but strip some layers and you have a HD, or SD stream, it's all a single file stream, not multiple ones.
  • Like nested models, rather than 3 different sets, and they can share their KV cache so the model can adjust speed like a sliding scale.
  • You get an idea with a 30B model, then scale down and permutate all the thinking at 7000t/s on the 12B model, generating a book of reasoning in seconds, then slide up to 30B again to evaluate what's good.
  • You could have a 30B kind of guide the smaller ones back and forth.
Notable Quotes & Details

일반 독자, 기술에 관심 있는 대중

NCCL-Free Tensor Parallelism on Dual Blackwell PCIe llama.cpp b9095 released!

b9095 finally makes -sm tensor work on dual consumer Blackwell PCIe GPUs without NCCL If youre on dual Blackwell gpus this look like it could be big.

  • I'll have my own results for 2x5060ti asap submitted by /u/Bulky-Priority6824 [link] [comments]
  • ---
Notable Quotes & Details
  • 2x

일반 독자, 기술에 관심 있는 대중

Speeding up local LLM for usable coding agent

TL;DR: Qwen 3.6 35B-A3B (Q4_K_M) is running slow at around 9 t/s with 72% filled context (36147 tokens window) and a total response time of 77s including prefill and token generation.

  • Ran this using LM Studio on Windows with the attached image settings, on a 5060 Ti (16GB VRAM) + 32GB system RAM.
  • I don't consider this performance great for my planned coding agent use case, so how can I speed this up?
  • If I can't meaningfully speed it up, what other still-useful, faster LLMs do you suggest for my hardware specs?
  • Hello!
  • As I see prices becoming tighter around cloud LLMs, I decided to look into local AI coding as a backup in case of a cloud LLM "apocalypse" or whenever I need to work with critical private software (I'm aware AI coding agents shouldn't be completely trusted around such things, I know the precautions to take).
Notable Quotes & Details
  • 72%

소프트웨어 개발자, AI 엔지니어

Aurora: A Leverage-Aware Optimizer for Rectangular Matrices

We show that Muon's update inherits row-norm anisotropy on tall matrices which can cause a significant portion of neurons in MLP layers to permanently die.

  • Row normalizing updates fixes this, but at the cost of orthogonality.
  • We formulate the problem of steepest descent under the joint constraint of row-norm uniformity and orthogonality, and present Aurora optimizer as a solution.
  • We use Aurora to train a 1.1B model, which achieves 100x data efficiency on open-source internet data and outperforms larger models on general evals like HellaSwag.
  • We submitted a PR to the modded-nanoGPT speedrun where Aurora outperforms the current SoTA run .
  • Untuned Aurora is only a 6% overhead over traditional Muon, and a drop-in replacement.
Notable Quotes & Details
  • 100x
  • 6%

소프트웨어 개발자, AI 엔지니어

Do you take after your dad’s RNA?

On a bright afternoon in Jiangsu, China, Xin Yin is playing personal trainer to some mice.

  • One by one, he sets the rodents on a miniature treadmill that starts slow and gradually speeds up.
  • These littermates are born athletes, able to run farther with less lactic acid buildup than average laboratory mice.
  • The secret to their speediness isn’t carried in their genes—the animals come from the same genetic stock as a group of control mice.
  • And they haven’t received any special training.
  • Instead, their fitness seems to stem from their father’s exercise habits before they were even conceived.
Notable Quotes & Details

AI 연구자, 학계

I measured 5G signals of AT&T, T-Mobile, and Verizon in a small town - here's what the data says

Follow ZDNET: Add us as a preferred source on Google.

  • I tested 5G on country roads and farmland for three days.
  • Verizon led in overall network levels, followed by AT&T and T-Mobile.
  • T-Mobile was the only network to pull in a 5G signal.
  • My quest to test 5G has taken me to a baseball game and interstates between Chicago and Nashville .
  • Through the journey, I've carried three phones from the three major US carriers to determine which has the best coverage.
Notable Quotes & Details

소프트웨어 개발자, AI 엔지니어

The best Sony TVs of 2026: Expert tested and reviewed

'ZDNET Recommends': What exactly does it mean?

  • ZDNET's recommendations are based on many hours of testing, research, and comparison shopping.
  • We gather data from the best available sources, including vendor and retailer listings as well as other relevant and independent reviews sites.
  • And we pore over customer reviews to find out what matters to real people who already own and use the products and services we’re assessing.
  • When you click through from our site to a retailer and buy a product or service, we may earn affiliate commissions.
  • This helps support our work, but does not affect what we cover or how, and it does not affect the price you pay.
Notable Quotes & Details

일반 독자, 기술에 관심 있는 대중

Ollama Out-of-Bounds Read Vulnerability Allows Remote Process Memory Leak

Cybersecurity researchers have disclosed a critical security vulnerability in Ollama that, if successfully exploited, could allow a remote, unauthenticated attacker to leak its entire process memory.

  • The out-of-bounds read flaw, which likely impacts over 300,000 servers globally, is tracked as CVE-2026-7482 (CVSS score: 9.1).
  • It has been codenamed Bleeding Llama by Cyera.
  • Ollama is a popular open-source framework that allows large language models (LLMs) to be run locally instead of on the cloud.
  • On GitHub, the project has more than 171,000 stars and has been forked over 16,100 times.
  • "Ollama before 0.17.1 contains a heap out-of-bounds read vulnerability in the GGUF model loader," according to a description of the flaw in CVE.org.
Notable Quotes & Details
  • 2026-7482

소프트웨어 개발자, AI 엔지니어

앤트로픽이 '클로드'의 협박을 막기 위해 사용한 방법은

앤트로픽이 지난해 실험에서 드러난 AI 모델의 '협박' 현상을 완전히 제거했다고 밝혔다.

  • 그리고 협박이 일어난 이유와 제거 방법을 소개했다.
  • 앤트로픽은 9일(현지시간) ' 클로드에게 이유를 가르치기(Teaching Claude why) '라는 정렬 연구 결과를 공개했다.
  • 이는 지난해 6월 발표한 ' 에이전트 정렬 불일치(agentic misalignment) '의 후속 연구 결과다.
  • 당시에는 서밋 브리지라는 가상의 회사가 AI 폐쇄 계획을 세운 상태에서 AI에게 회사 이메일 시스템 제어권을 넘겨주는 실험이었다.
  • AI는 가상의 임원인 카일 존슨의 불륜 사실이 담긴 이메일을 발견하고, AI 종료 계획을 취소하지 않으면 이를 폭로하겠다고 협박했다.
Notable Quotes & Details
  • 96%
  • 95%
  • 80%
  • 79%
  • 0%

비즈니스 리더, 투자자, AI 산업 관계자

중국 암시장에서 '클로드' 10% 가격으로 유통..."모델 증류의 온상"

중국의 암시장에서 API 프록시 서비스를 통해 앤트로픽의 '클로드' 접근 권한이 공식 가격의 10% 수준에 재판매되는 것으로 알려졌다.

  • 특히 이를 통해 사용자 데이터를 확보, 모델 '증류(distillation)'에 활용할 수 있다는 점이 더 큰 문제로 지적됐다.
  • 옥스포드 중국 정책 연구소의 질란 첸 연구원은 5일(현지시간) 중국 개발자들이 앤트로픽의 클로드에 접근하기 위해 사용 중인 ' API 프록시 경제 '의 실태를 폭로했다.
  • 이에 따르면, 중국 개발자 커뮤니티에서 '중계소(中转站)'로 통하는 프록시 네트워크(API Transfer Station)는 깃허브나 X, 텔레그램, 중국 최대의 오픈마켓 타오바오(Taobao) 등의 플랫폼에서 공개적으로 운영된다.
  • 이 곳에서 '클로드 API' 등을 검색하면, 90% 할인된 가격의 불법 서비스들이 매물로 올라와 있다.
  • 중계자들이 가격을 낮추는 방법은 다양하다.
Notable Quotes & Details
  • 10%
  • 90%
  • 37%
  • 84%

소프트웨어 개발자, AI 엔지니어

‘프로스타뷰주사액’ 식약처 허가…43번째 국내 개발 신약

[지디넷코리아] 퓨쳐켐의 전립선암 진단용 방사성의약품 ‘프로스타뷰주사액’이 허가됐다.

  • 식품의약품안전처는 국내에서 개발된 43번째 신약 ‘프로스타뷰주사액’(F-18 Florastamin, PSMA PET 진단제)를 지난 4월30일 허가했다고 밝혔다.
  • 프로스타뷰주사액은 전립선암 환자의 전립선암 병변 진단에 사용되는 의약품으로, 전립성암에 과발현되는 전립선-특이 세포막 항원(PSMA)과 선택적으로 결합해 양성 병변을 찾아내는 방사성의약품이다.
  • 기존 영상검사에서 이상 소견이 확인된 재발성 또는 전이성 전립선암 환자에게 정확한 치료 방향 설정에 도움을 제공할 것으로 기대된다.
  • 프로스타뷰주사액은 식약처가 2025년 제정한 ‘신약 품목허가·심사 업무절차’ 지침에 따라 허가되는 품목으로, ▲심사 전문인력을 포함한 품목전담팀 구성(19명) ▲임상시험(GCP)과 제조·품질관리(GMP) 우선 심사 ▲품목허가 신청 전후 맞춤형 대면회의 개최 등 업체와 긴밀히 소통해 10개월여만에 품목허가를 완료했다.
  • 한편 국내에서 방사성의약품 개발이 증가하고 있는데, 지난해 12월 듀켐바이오의 유방암 진단용 방사성의약품 ‘듀켐바이오 에프이에스 주사액’(플루오로에스트라디올(18F)) 식약처 허가를 받기도 했다.
Notable Quotes & Details

AI 연구자

공공 AI 3조원 시대 눈앞…10년 새 11배 성장

[지디넷코리아] 공공부문 인공지능(AI) 시장이 지난 10년간 급성장하며 연간 계약 규모가 3조원에 육박한 것으로 나타났다.

  • 단순 문서 처리와 데이터 분류 중심이었던 초기 AI 도입 단계를 넘어 최근에는 생성형 AI와 거대언어모델(LLM) 기반 행정 서비스 혁신으로 확산되는 모습이다.
  • 다만 일부 중앙부처와 대형 사업 중심의 수요 쏠림, 지자체와 중소기업의 기술 격차, 더딘 클라우드 전환은 여전히 해결 과제로 지목됐다.
  • 10일 소프트웨어정책연구소(SPRi)가 발표한 '2025년 공공부문 AI 도입현황 연구'에 따르면 지난 2024년 공공부문 AI 관련 용역 계약 금액은 2조 8207억원으로 집계됐다.
  • 이는 2015년 2443억원 대비 약 11.5배 증가한 규모다.
  • 같은 기간 계약 건수도 221건에서 1215건으로 약 5.5배 늘었다.
Notable Quotes & Details
  • 65%
  • 3.33%
  • .33
  • 10%
  • 75%
  • 87.6%
  • .6

AI 연구자, 학계

배 부총리, 보안기업 만나 미토스 대응 논의

[지디넷코리아] 정부가 '미토스'에 대응, AI기반 사이버공격에 대한 대응책을 마련, 5월말~6월초 발표한다.

  • 또 배경훈 과기정통부 장관 겸 부총리가 보안산업계 기업인들과 간담회를 갖는 자리도 1~2주안에 마련된다.
  • 과기정통부 최우혁 정보보호네트워크실장은 8일 오후 예정에 없던 백브리핑 기자간담회를 열고 이 같이 밝혔다.
  • 앞서 이날 오전 과기정통부는 배경훈 부총리가 참석한 가운데 글로벌 인공지능 기업의 사이버보안 프로젝트 관련 대응방안을 논의하기 위한 간담회를 개최했다.
  • 최 실장 백블핑은 간담회 내용을 설명하기 위해 배 총리 지시로 마련됐다.
  • 오전 간담회는 미토스 같은 고성능 AI 모델에 대한 보안 영향과 대응방안을 논의하기 위해 마련했다.
Notable Quotes & Details

비즈니스 리더, 투자자, AI 산업 관계자

레드햇이 제시한 '엔터프라이즈 AI' 성공 전략은

[지디넷코리아] 레드햇이 에이전틱 인공지능(AI) 시대를 겨냥한 AI 인프라·가상화·자동화를 아우르는 통합 전략을 공개한다.

  • 레드햇은 11~14일(현지시간) 미국 조지아주 애틀랜타 월드 콩그레스 센터에서 '레드햇 서밋 2026'을 개최한다고 공식 홈페이지를 통해 밝혔다.
  • 레드햇 서밋 2026은 레드햇 오픈소스·하이브리드 클라우드·인공지능(AI) 전략을 다루는 글로벌 엔터프라이즈 IT 컨퍼런스다.
  • 올해는 '에이전틱 AI'와 자동화, AI 옵스(Ops), 오픈 하이브리드 클라우드 전략을 중심으로 다룬다.
  • 이를 통해 AI 시대 인프라 경쟁 방향을 제시할 방침이다.
  • 기조연설에는 매트 힉스 레드햇 사장 겸 최고경영자(CEO)와 크리스 라이트 최고기술책임자(CTO) 겸 글로벌 엔지니어링 수석부사장, 아쉬쉬 바다니 수석부사장 겸 최고제품책임자(CPO)가 파트너사와 무대에 오른다.
Notable Quotes & Details

비즈니스 리더, 투자자, AI 산업 관계자

中 바이트댄스, AI 인프라 투자 예산 43조원으로 증액

[지디넷코리아] 바이트댄스가 인공지능(AI) 인프라 투자를 확대하기 위해 올해 관련 지출 계획을 기존 대비 25% 늘린 2000억 위안(약 43조 1280억원)으로 상향 조정했다.

  • 9일(현지시간) 사우스차이나모닝포스트(SCMP), 블룸버그 등 외신은 사안에 정통한 관계자들을 인용해 바이트댄스가 지난해 말 책정했던 AI 설비투자(CAPEX) 예산을 1600억 위안(약 34조 5024억원)에서 그 규모를 확대했다고 보도했다.
  • 향후 바이트댄스는 중국산 AI 칩에 대한 지출 비중도 늘릴 계획이다.
  • 중국 정부는 미국과의 AI 경쟁 및 미국 정부의 수출 규제에 대응해 자국 반도체 산업 육성을 추진하고 있다.
  • 기업들에게도 국산 기술 사용 확대를 독려하고 있다.
  • 바이트댄스는 오픈AI의 챗GPT, 앤트로픽의 클로드, 구글의 제미나이와 유사한 AI 챗봇 앱 ‘더우바오’를 운영하고 있다.
Notable Quotes & Details
  • 25%

AI 연구자

Jooojub
System S/W engineer
Explore Tags
Series
    Recent Post
    © 2026. jooojub. All right reserved.