Daily Briefing

April 19, 2026
2026-04-18
42 articles

Nvidia’s Huang warns DeepSeek running on Huawei chips would be ‘horrible’ for the US

엔비디아 CEO 젠슨 황은 DeepSeek이 화웨이 칩용 AI 모델을 최적화하는 것이 미국에게 "끔찍한 결과"가 될 것이라고 경고했다.

  • 엔비디아 CEO 젠슨 황은 DeepSeek이 화웨이의 Ascend 칩용 AI 모델을 최적화하는 것에 대해 우려를 표명했다.
  • DeepSeek은 V4 파운데이션 모델을 화웨이의 Ascend 950PR 프로세서로 출시할 예정이다.
  • 이러한 움직임은 미국의 AI 지배력의 기반이 되는 소프트웨어-하드웨어 의존성을 undermines할 수 있다.
  • 황은 중국이 자체 AI 표준과 기술을 통해 미국보다 우위를 점할 수 있다고 경고했다.
  • DeepSeek의 모델은 엔비디아 칩에서 훈련되었을 수 있지만, 화웨이 칩에 배포될 예정이다.
Notable Quotes & Details

AI 산업 관계자, 투자자, 정책 입안자

Anthropic’s Amodei meets Wiles and Bessent at the White House in first step toward resolving Mythos standoff

Anthropic CEO Dario Amodei가 백악관 관계자들과 Mythos AI 모델 접근에 대한 회담을 가졌다.

  • Anthropic CEO Dario Amodei는 백악관 비서실장 Susie Wiles 및 재무장관 Scott Bessent와 회담을 가졌다.
  • 회담은 Mythos AI 모델 접근에 대한 "생산적이고 건설적인" 논의였다.
  • Mythos는 수천 개의 제로데이 취약점을 찾을 수 있는 최첨단 AI 모델이다.
  • 이 회의는 Anthropic이 안전 제한을 이유로 국방부의 블랙리스트에 올랐던 상황을 해소하는 첫 단계이다.
  • 합의가 이루어질 경우, 국방부는 제외되고 민간 기관을 통해 Mythos에 접근하게 될 가능성이 있다.
Notable Quotes & Details

AI 산업 관계자, 정책 입안자, 기술 및 안보 전문가

Palantir, Thales, and a startup are competing to build the FAA’s predictive air traffic AI

FAA가 항공 교통 관제 AI 시스템 SMART 개발을 위해 Palantir, Thales, Air Space Intelligence와 경쟁 중이다.

  • FAA는 SMART(Strategic Management of Airspace Routing Trajectories)라는 AI 시스템을 개발 중이다.
  • SMART는 항공 교통 충돌 예측 시간을 현재 15분에서 2시간으로 연장하는 것을 목표로 한다.
  • Palantir, Thales, Air Space Intelligence 세 회사가 계약을 위해 경쟁하고 있다.
  • 이 프로젝트는 라과디아 공항 충돌 사고와 관제사 과로 문제를 해결하기 위해 추진된다.
  • SMART는 고정밀 4D 모델링을 사용하여 항공기 이륙 전 병목 현상 및 스케줄 충돌을 예측한다.
Notable Quotes & Details
  • 32.5 billion: FAA 현대화 프로그램 예산
  • 612: 교체될 노후 레이더 시스템 수
  • 1,200: 2026 회계연도에 채용될 신규 관제사 수
  • 2026년: Palantir의 예상 매출 약 $7.2 billion

항공 산업 관계자, AI 기술 개발자, 정부 기관 관계자

Cursor is raising $2 billion at a $50 billion valuation as AI coding tools become the fastest-growing software category

AI 코딩 스타트업 Cursor가 500억 달러 가치로 20억 달러 자금 조달을 추진하며 AI 코딩 도구 시장의 급성장을 주도하고 있다.

  • AI 코딩 스타트업 Cursor(Anysphere)가 Andreessen Horowitz, Thrive Capital, Nvidia의 공동 주도로 최소 20억 달러의 자금 조달을 논의 중이다.
  • 예상 기업 가치는 500억 달러로, 5개월 전 293억 달러에서 거의 두 배 증가한 수치이다.
  • Cursor는 3년 만에 연간 반복 매출(ARR) 20억 달러를 달성하여 역사상 가장 빠르게 성장한 B2B 소프트웨어 회사 기록을 세웠다.
  • 100만 명 이상의 유료 고객과 200만 명 이상의 총 사용자를 보유하고 있으며, Fortune 1,000대 기업 중 약 70%가 고객이다.
  • GitHub Copilot, Claude Code 등과의 경쟁이 심화되고 있다.
Notable Quotes & Details
  • $2 billion: 현재 조달 논의 중인 자금
  • $50 billion: 예상 기업 가치
  • $29.3 billion: 2025년 11월 기업 가치
  • 3년: 0에서 20억 달러 ARR 달성 기간
  • 1 million+: 유료 고객 수
  • 70%: Fortune 1,000대 기업 고객 비율
  • 2024년 8월: Series A (4억 달러 가치)
  • 5개월 후: Series B (26억 달러 가치)
  • 2025년 5월: Series C (90억 달러 가치)
  • 2025년 11월: Series D (293억 달러 가치)

소프트웨어 개발자, AI 기술 투자자, 스타트업 관계자

Three more senior executives leave OpenAI as the company kills its side quests

OpenAI의 전 CPO Kevin Weil, Sora 개발 책임자 Bill Peebles, 기업용 CTO Srinivas Narayanan 등 3명의 고위 임원들이 회사의 "사이드 퀘스트" 중단 및 기업 AI로의 전환과 함께 동반 퇴사했습니다.

  • 3명의 고위 임원이 OpenAI를 떠났습니다.
  • OpenAI는 Sora 및 OpenAI for Science와 같은 "사이드 퀘스트"를 중단하고 기업 AI에 집중하고 있습니다.
  • 이는 2년 동안 11명의 공동 창업자 중 2명만 남는 등 지속적인 리더십 이탈 패턴의 일부입니다.
  • 퇴사자들은 Anthropic, Meta의 Superintelligence Labs 및 여러 스타트업으로 이직하고 있습니다.
  • OpenAI는 연간 250억 달러 수익을 목표로 하며 140억 달러의 예상 손실에 직면해 있습니다.
Notable Quotes & Details
  • $25 billion in annualised revenue (연간화 수익)
  • projected $14 billion losses (예상 손실)
  • 2 of 11 co-founders remain (11명 중 2명 공동창업자 잔류)
  • Sora discontinuing 26 April (Sora 4월 26일 중단)

AI 산업 분석가, 투자자, 기업 전략가

Anthropic’s relationship with the Trump administration seems to be thawing

국방부에 의해 공급망 위험으로 지정되었음에도 불구하고, Anthropic은 트럼프 행정부 고위 관계자들과의 관계가 해빙되는 조짐을 보이고 있습니다.

  • Anthropic은 국방부의 공급망 위험 지정에도 불구하고 트럼프 행정부와 소통을 지속하고 있습니다.
  • 재무장관 Scott Bessent와 연준 의장 Jerome Powell은 주요 은행들에게 Anthropic의 Mythos 모델을 테스트할 것을 권장했습니다.
  • Anthropic의 공동 창업자 Jack Clark는 공급망 위험 지정이 "좁은 계약 분쟁"이며 정부 브리핑에 영향을 미치지 않을 것이라고 언급했습니다.
  • Axios 보도에 따르면 Bessent와 White House 비서실장 Susie Wiles가 Anthropic CEO Dario Amodei를 만났으며, 백악관은 이를 "생산적이고 건설적인" 회의로 묘사했습니다.
  • Anthropic과 국방부의 분쟁은 Anthropic이 자사 모델의 완전 자율 무기 및 대규모 국내 감시 사용에 대한 안전장치 유지를 시도하면서 시작되었습니다.
Notable Quotes & Details

AI 정책 분석가, 정부 관계자, AI 기업 리더

Google AI Releases Auto-Diagnose: An Large Language Model LLM-Based System to Diagnose Integration Test Failures at Scale

Google AI가 대규모 통합 테스트 실패를 진단하는 LLM 기반 시스템인 Auto-Diagnose를 출시하여 개발자들이 로그 파일에서 버그의 근본 원인을 찾는 데 도움을 줍니다.

  • Google AI는 통합 테스트 실패 진단을 위한 LLM 기반 도구인 Auto-Diagnose를 도입했습니다.
  • 이 도구는 실패 로그를 자동으로 읽고 근본 원인을 찾아 코드 리뷰에 간결한 진단을 게시합니다.
  • 수동 평가 결과, 71개의 실제 실패 사례 중 90.14%의 정확도로 근본 원인을 식별했습니다.
  • Google 개발자 설문조사에서 통합 테스트 실패 진단은 상위 5가지 불만 사항 중 하나였습니다.
  • 응답자의 38.4%가 통합 테스트 실패 진단에 1시간 이상이 걸리고, 8.9%는 하루 이상이 걸린다고 답했습니다.
Notable Quotes & Details
  • 90.14% (정확도)
  • 71 real-world failures (실제 실패 사례)
  • 39 distinct teams (개별 팀)
  • 52,635 distinct failing tests (개별 실패 테스트)
  • 224,782 executions (실행 횟수)
  • 91,130 code changes (코드 변경)
  • 22,962 distinct developers (개별 개발자)
  • 5.8% ('Not helpful' rate)
  • 78% of integration tests at Google are functional (Google 통합 테스트의 78%가 기능적)
  • 38.4% of integration test failures take more than an hour to diagnose (통합 테스트 실패 진단에 1시간 이상 소요)
  • 8.9% take more than a day (하루 이상 소요)

소프트웨어 개발자, QA 엔지니어, DevOps 엔지니어

A End-to-End Coding Guide to Running OpenAI GPT-OSS Open-Weight Models with Advanced Inference Workflows

이 튜토리얼은 Google Colab에서 OpenAI의 오픈 가중치 GPT-OSS 모델을 실행하고, 기술적 동작, 배포 요구사항 및 고급 추론 워크플로에 중점을 둔 종단 간 코딩 가이드를 제공합니다.

  • Google Colab에서 OpenAI의 오픈 가중치 GPT-OSS 모델 실행 방법을 안내합니다.
  • Transformers 기반 실행을 위한 종속성 설정, GPU 가용성 확인, MXFP4 양자화 및 torch.bfloat16 활성화를 사용한 모델 로딩을 다룹니다.
  • 구조화된 생성, 스트리밍, 다중 턴 대화 처리, 도구 실행 패턴, 배치 추론과 같은 핵심 기능을 탐색합니다.
  • 오픈 가중치 모델이 폐쇄형 호스팅 API와 비교하여 투명성, 제어 가능성, 메모리 제약 및 로컬 실행의 장단점을 강조합니다.
  • GPT-OSS를 단순히 챗봇이 아닌, 재현 가능한 워크플로 내에서 구성, 프롬프트 및 확장할 수 있는 기술적으로 검사 가능한 오픈 가중치 LLM 스택으로 다룹니다.
Notable Quotes & Details
  • gpt-oss-20b (모델명)
  • ~16GB VRAM (요구 VRAM)

AI 개발자, 머신러닝 엔지니어, 연구원

Notes: 튜토리얼 형식의 코딩 가이드로, 실제 코드 스니펫을 포함하고 있습니다.

The Devil Is in Gradient Entanglement: Energy-Aware Gradient Coordinator for Robust Generalized Category Discovery

Generalized Category Discovery (GCD)에서 발생하는 경사도 얽힘(gradient entanglement) 문제를 해결하기 위한 에너지 인식 경사도 조정기(EAGC)를 제안하는 논문입니다.

  • 기존 GCD 방법론의 최적화 간섭이 성능 개선을 저해함을 발견.
  • 경사도 얽힘이 알려진 클래스 간 차별성을 약화시키고 새로운 클래스와의 표현 공간 중첩을 유발함.
  • EAGC는 앵커 기반 경사도 정렬(AGA)과 에너지 인식 탄성 투영(EEP)으로 구성됨.
  • AGA는 참조 모델을 사용해 레이블이 지정된 샘플의 경사도 방향을 고정하여 차별 구조를 보존함.
  • EEP는 알려진 클래스 부분 공간의 보완 부분 공간에 레이블이 없는 경사도를 투영하여 중첩을 줄임.
  • EAGC가 기존 방법의 성능을 향상시키고 최신 결과를 달성함을 실험으로 입증.
Notable Quotes & Details

AI 연구자, 머신러닝 개발자

MixAtlas: Uncertainty-aware Data Mixture Optimization for Multimodal LLM Midtraining

멀티모달 LLM 중간 학습(midtraining)을 위한 불확실성 인식 데이터 혼합 최적화 방법인 MixAtlas를 소개하며, 벤치마크 대상 데이터 레시피를 생성합니다.

  • 멀티모달 중간 학습을 위한 데이터 혼합 최적화가 주로 단일 차원에서 이루어졌음.
  • MixAtlas는 이미지 개념(CLIP 임베딩을 통한 10가지 시각 도메인 클러스터)과 작업 감독(캡션, OCR, 접지, 감지, VQA 포함 5가지 목표 유형)의 두 가지 축으로 학습 코퍼스를 분해함.
  • 작은 프록시 모델(Qwen2-0.5B)과 가우스 프로세스 대리 모델 및 GP-UCB 획득을 사용하여 혼합 공간을 탐색함.
  • Qwen2-7B에서 최적화된 혼합이 가장 강력한 기준선 대비 평균 성능을 8.5%~17.6% 향상시킴.
  • Qwen2.5-7B에서는 1.0%~3.3%의 성능 향상을 보이며, 기준선과 동일한 학습 손실에 도달하는 데 최대 2배 적은 단계가 필요함.
  • 0.5B 프록시에서 발견된 레시피는 Qwen 모델군 전반의 7B 스케일 학습으로 전이됨.
Notable Quotes & Details
  • 8.5%-17.6%
  • 1.0%-3.3%
  • 2 times fewer steps

AI 연구자, 멀티모달 LLM 개발자

Portfolio Optimization Proxies under Label Scarcity and Regime Shifts via Bayesian and Deterministic Students under Semi-Supervised Sandwich Training

데이터 희소성 및 시장 체제 변화 상황에서 머신러닝 기반 포트폴리오 최적화 프레임워크를 제안하는 논문으로, 조건부 가치 위험(CVaR) 최적화기가 생성하는 레이블을 활용하여 신경망 모델을 학습합니다.

  • 낮은 데이터 환경과 체제 불확실성을 위해 설계된 머신러닝 기반 포트폴리오 최적화 프레임워크 제안.
  • 조건부 가치 위험(CVaR) 최적화기가 감독 레이블을 생성하는 교사-학생 학습 파이프라인 구축.
  • 베이시안 및 결정론적 신경망 모델을 실제 데이터와 합성 증강 데이터를 사용하여 학습.
  • t 코풀라 잔차를 포함한 요인 기반 모델을 사용하여 합성 데이터 생성, 제한된 104개 레이블 관측치 이상의 학습 가능.
  • 제어된 합성 실험, 분포 내 실제 시장 평가, 교차 유니버스 일반화를 포함한 구조화된 실험 프레임워크에서 네 가지 학생 모델 평가.
  • 실제 시장 환경에서 모델은 주기적으로 미세 조정되고 기본 상태로 재설정되는 롤링 평가 프로토콜로 배포됨.
  • 학생 모델이 여러 설정에서 CVaR 교사를 일치시키거나 능가하며, 체제 변화 시 향상된 견고성과 감소된 거래 회전율을 달성함.
Notable Quotes & Details
  • 104 labeled observations

금융공학 연구자, 퀀트 투자자, 머신러닝 개발자

Towards Verified and Targeted Explanations through Formal Methods

딥러닝 모델에 대한 신뢰할 수 있고 표적화된 설명을 제공하기 위해 형식 방법을 활용하는 ViTaX(Verified and Targeted Explanations) 프레임워크를 소개하는 논문입니다.

  • 안전에 중요한 영역에 배포되는 딥 신경망에 대한 해석 가능하고 신뢰할 수 있는 설명의 필요성 강조.
  • 기존 XAI 방법론의 한계 지적: 휴리스틱 귀인 기법은 의사결정 경계에 대한 수학적 보증이 없고, 형식 방법은 견고성을 검증하지만 표적화되지 않음.
  • ViTaX는 수학적 보증과 함께 표적화된 반사실적 설명을 생성하는 형식 XAI 프레임워크임.
  • ViTaX는 특정 y->t 전환에 가장 민감한 최소 기능 부분 집합을 식별하고, 이러한 기능에 ε만큼 섭동을 가해도 t로 분류가 변경되지 않음을 형식 도달 가능성 분석으로 보증함.
  • 표적화된 ε-견고성을 통해 모델이 사용자 식별 대안에 대해 얼마나 복원력이 있는지 공식적으로 보증함.
  • MNIST, GTSRB, EMNIST 및 TaxiNet에 대한 평가에서 최소한의 설명 카디널리티로 30% 이상의 충실도 향상 입증.
Notable Quotes & Details
  • 30% fidelity improvement

AI 연구자, 안전에 중요한 시스템 개발자, XAI 연구자

Shapley Value-Guided Adaptive Ensemble Learning for Explainable Financial Fraud Detection with U.S. Regulatory Compliance Validation

미국 금융 사기 탐지 분야에서 규제 준수를 위한 설명 가능한 AI 모델의 필요성과 SHAP 기반 앙상블 학습 모델의 효율성을 제안하는 연구.

  • AI 기반 사기 탐지 모델의 설명 불가능성으로 인한 규제 준수 문제 직면.
  • 다양한 설명 기법의 충실도 및 안정성 평가 (XGBoost + TreeExplainer가 높은 안정성, LSTM + DeepExplainer는 낮은 안정성).
  • SHAP-Guided Adaptive Ensemble (SGAE) 모델 제안 및 최고 AUC-ROC 성능 달성.
  • LSTM, Transformer, GNN-GraphSAGE 3가지 아키텍처를 59만 건 이상의 IEEE-CIS 데이터셋에 평가.
  • 모든 결과는 OCC, SR 11-7, BSA-AML 규제 준수 요구사항에 직접 매핑됨.
Notable Quotes & Details
  • $32 billion each year
  • OCC Bulletin 2011-12
  • Federal Reserve SR 11-7
  • BSA-AML
  • W=0.9912
  • AUC-ROC 0.8837 (held-out); 0.9245 (cross-validation)
  • AUC-ROC 0.9248 and F1=0.6013
  • 590,540-transaction IEEE-CIS dataset

AI 연구자, 금융 사기 방지 전문가, 규제 준수 담당자

oh-my-customcode — Claude Code 에이전트를 "설정"이 아니라 "컴파일"하는 툴

Claude Code 에이전트 개발 시 발생하는 반복적인 설정 문제 해결을 위해 "컴파일" 개념을 도입한 `oh-my-customcode` 툴 소개.

  • Claude Code 에이전트 개발 시 스킬, YAML, 라우팅 등 복잡한 설정 과정을 자동화.
  • `Your AI Agent Stack. Compiled, Not Configured.`를 모토로 재사용 가능한 지식/워크플로우(스킬)와 에이전트를 분리.
  • `omcustom init` 한 번으로 48개 에이전트, 107개 스킬, 22개 룰, 39개 가이드 제공.
  • 메인 대화는 싱글턴 오케스트레이터로 작동하며, 모든 작업은 전용 에이전트에 위임되어 컨텍스트 혼합 방지.
  • 모델 티어링을 명시적으로 적용 (아키텍처/리서치는 opus, 구현/에이전트 생성은 sonnet, 검색/카운트 검증은 haiku).
  • 안전 훅(secret-filter, audit-log 등)은 경고만 남기고 막지 않는 advisory 방식.
Notable Quotes & Details
  • 48 agents / 107 skills / 22 rules / 39 guides
  • R010
  • opus
  • sonnet
  • haiku
  • reasoning-sandwich 패턴
  • GitHub: https://github.com/baekenough/oh-my-customcode
  • npm: https://www.npmjs.com/package/oh-my-customcode

Claude Code 개발자, AI 에이전트 시스템 아키텍트, 생산성 툴 개발자

Qwen3.5 모델 양자화, 왜 커뮤니티 버전은 성능이 떨어지나

Qwen3.5 모델의 커뮤니티 버전 양자화에서 발생하는 성능 저하 원인을 분석하고, 레이어별 민감도를 고려한 혼합 비트 양자화 해법을 제시하는 연구.

  • 커뮤니티 배포 MLX 포맷 Qwen3.5 모델에서 도구 호출 오류, 무의미한 출력, 환각 현상 발생.
  • Unsloth가 150개 이상의 벤치마크 실험으로 원인과 해법 규명.
  • 균일 양자화는 Qwen3.5의 하이브리드 구조(자기주의/GatedDeltaNet)를 고려하지 않아 민감한 `linear_attn.out_proj` 레이어 손상.
  • 해결책으로 레이어별 민감도에 따른 혼합 비트 양자화(민감도 낮은 MLP 3비트, 어텐션 Q/K/V 5비트 + AWQ, 출력 레이어 bf16 유지) 제안.
  • 캘리브레이션 데이터로 대화, 코딩, 도구 호출 예제를 사용해 실제 환경 중요도 반영.
  • 장점: 도구 호출, 구조화된 출력, 코드 생성 품질 향상; 동일 GGUF 버전과 MLX에서 동등 성능.
  • 단점: 일부 레이어 bf16 유지로 디스크 용량이 순수 저비트 모델보다 큼.
Notable Quotes & Details
  • MLX 포맷 Qwen3.5
  • Unsloth
  • 150개 이상의 벤치마크 실험
  • 121개 설정 비교
  • `linear_attn.out_proj` 레이어
  • 4비트 압축 시 정보 손실 민감도가 출력 레이어(lm_head) 대비 약 120배
  • MLP 레이어는 3비트
  • 어텐션 Q/K/V 레이어는 5비트 + AWQ
  • 출력 레이어는 bf16
  • Qwen3.6-35B-A3B
  • Claude Opus 4.7

AI 모델 개발자, 양자화 연구자, MLX/LLM 사용자, MLOps 엔지니어

Notes: Unsloth 창립자 Daniel Han에 대한 찬사가 포함되어 있음.

Smol machines – 서브초 콜드스타트, 이식 가능한 가상머신

macOS 및 Linux에서 서브초 콜드스타트, 탄력적 메모리 관리, 단일 파일 이식성을 지원하는 CLI 기반 가상머신 관리 도구인 `smolvm` 소개.

  • `smolvm`은 격리된 환경에서 소프트웨어를 실행하는 CLI 기반 가상머신 관리 도구.
  • 서브초(1초 미만) 콜드스타트, 탄력적 메모리 관리, 단일 파일 이식성을 제공하여 빠르고 가벼운 VM 실행 가능.
  • VM은 리눅스 커널 기반 마이크로VM 형태로 구동되며, `.smolmachine` 파일로 패키징하여 의존성 없이 재실행 가능.
  • 하이퍼바이저 경계 격리, SSH 에이전트 포워딩, Smolfile 기반 환경 선언 등으로 개발 및 보안 환경 통합 지원.
  • Docker 데몬 없이 OCI 이미지 부팅 지원하며, 200ms 미만 부팅 시간과 하드웨어 수준 격리 제공.
  • macOS에서는 Hypervisor.framework, Linux에서는 KVM 위에서 독립 커널 실행.
Notable Quotes & Details
  • `smolvm`
  • 서브초(1초 미만) 콜드스타트
  • 200ms 미만 부팅 시간
  • .smolmachine 파일
  • OCI 이미지 포맷
  • 4 vCPU, 8GiB RAM
  • Apache-2.0 라이선스
  • @binsquare

개발자, DevOps 엔지니어, 보안 전문가, 가상화 기술 사용자

Show GN: 웹 Gemini를 VSCode처럼 - Gemini VSCode Theme 크롬 익스텐션

웹 Gemini의 인터페이스를 VS Code처럼 보이도록 변경하는 크롬 확장 프로그램이 개발되었습니다.

  • VS Code Dark+ 테마, 라인 넘버, 액티비티 바, 사이드바, 상태 바, 타이틀 바 등 VS Code와 유사한 UI를 제공합니다.
  • 모노스페이스 폰트(JetBrains Mono, Noto Sans KR) 및 터미널 스타일 입력창을 적용합니다.
  • Python 모드를 켜면 Gemini 채팅이 Jupyter Notebook 셀처럼 표시됩니다.
  • 실제 VS Code의 추가 기능은 없으며, 단순한 테마 변경입니다.
Notable Quotes & Details

Gemini 사용자, 개발자, VS Code 사용자

Show GN: Nilbox – API 토큰 노출 없이 OpenClaw를 실행하세요

Nilbox는 API 토큰을 에이전트에 직접 노출하지 않고 OpenClaw를 안전하게 실행할 수 있도록 돕는 도구입니다.

  • 실제 API 토큰을 에이전트에 직접 전달하지 않고, 네트워크 레이어에서 가짜 토큰을 실제 토큰으로 교체합니다.
  • 토큰 유출 시 공격자가 얻는 것은 의미 없는 문자열뿐이므로 보안을 강화합니다.
  • macOS, Windows, Linux를 지원하며 관리형 Linux 런타임, 원클릭 앱 설치가 가능한 Store, 풀 쉘 접근을 제공합니다.
Notable Quotes & Details

AI 에이전트 개발자, 보안에 관심 있는 사용자

ICML 2026 - Heavy score variance among various batches? [D]

ICML 2026 논문 심사에서 배치별로 점수 편차가 큰 것에 대한 질문과 논의입니다.

  • 일부 배치에서는 3.5점 이상 논문이 거의 없지만, 다른 배치에서는 대부분 3.75점 평균을 기록하는 등 큰 점수 차이가 발생합니다.
  • 이러한 점수 편차가 도메인 차이, 심사위원의 엄격성 때문인지, ICML에서 이를 고려하는지에 대한 의문이 제기됩니다.
Notable Quotes & Details
  • 3.5 score
  • 3.75 average

Machine Learning 연구자, 학회 심사위원, 논문 제출자

Zero-shot World Models Are Developmentally Efficient Learners [R]

Zero-shot World Model (ZWM)은 인간 아동보다 훨씬 적은 데이터로 시각적 능력을 달성하여 데이터 효율적인 AI 시스템을 향한 발판을 마련하는 연구입니다.

  • 현재 AI는 인간 아동보다 시각적 능력 달성에 훨씬 많은 데이터가 필요합니다.
  • ZWM은 단일 아동의 시각적 경험만으로 학습해도 다양한 시각-인지 작업에서 최첨단 모델과 유사한 성능을 보입니다.
  • task-specific 훈련 없이 zero-shot으로 동작하며, 데이터 효율적인 AI 시스템 개발을 위한 청사진을 제시합니다.
Notable Quotes & Details

AI 연구자, 머신러닝 개발자, 인공지능 윤리 연구자

We’re proud to open-source LIDARLearn [R] [D] [P]

3D 포인트 클라우드 딥러닝을 위한 통합 PyTorch 라이브러리인 LIDARLearn가 오픈 소스로 공개되었습니다.

  • 56가지 구성과 교차 검증을 지원하는 최초의 통합 라이브러리입니다.
  • YAML 파일 하나로 손쉽게 실행 가능하며, 훈련 후 LaTeX PDF 보고서를 자동 생성합니다.
  • ModelNet40, ShapeNet, S3DIS 등 다양한 데이터셋에 대한 벤치마크를 포함합니다.
  • 3D 포인트 클라우드 학습, 3D 컴퓨터 비전, 원격 감지 연구자를 대상으로 합니다.
Notable Quotes & Details

AI 연구자, 딥러닝 개발자

easyaligner: Forced alignment with GPU acceleration and flexible text normalization (compatible with all w2v2 models on HF Hub) [P]

GPU 가속 및 유연한 텍스트 정규화를 지원하는 강제 정렬 라이브러리 easyaligner가 공개되었습니다.

  • 오디오와 텍스트 전처리를 위해 설계된 고성능 및 사용하기 쉬운 라이브러리입니다.
  • 전사본이 모든 음성 콘텐츠를 다루지 않는 경우, 관련 오디오 영역을 자동으로 감지합니다.
  • 긴 오디오 및 텍스트 세그먼트를 청크 없이 처리할 수 있습니다.
  • wav2vec2 모델을 지원하며, 다양한 언어의 오디오와 텍스트를 강제 정렬할 수 있습니다.
Notable Quotes & Details

기계 학습 개발자, 음성-텍스트 모델 연구자

Notes: 내용 불완전

Gemma 4 actually running usable on an Android phone (not llama.cpp)

Google의 LiteRT 설정을 통해 Android 휴대폰에서 Gemma 4 LLM을 로컬로 원활하게 실행하는 방법을 공유합니다.

  • llama.cpp 대신 Google의 LiteRT를 사용하여 Gemma 4를 Android에서 효율적으로 실행합니다.
  • LLM을 로컬에서 실행하고, ADB를 통해 자체 앱을 자동화하며, 오프라인 작동이 가능합니다.
  • 사용자가 자신만의 로컬 AI 비서를 구축하는 데 도움이 되는 상세 정보 및 코드를 제공합니다.
Notable Quotes & Details

AI 개발자, Android 사용자, LLM 애호가

AI helped me build a custom PC and 4 apps in 6 months with zero coding experience

코딩 경험이 없는 사용자가 AI의 도움을 받아 맞춤형 PC를 조립하고 4개의 앱을 개발한 경험에 대한 이야기입니다.

  • AI(ChatGPT 및 Claude)를 활용하여 맞춤형 PC 부품 목록을 성공적으로 만들었습니다.
  • 6개월 만에 코딩 경험 없이 4개의 앱을 개발하는 데 AI가 큰 도움이 되었습니다.
  • AI가 단순한 유행이 아니라 미래라는 점을 강조하며, AI 학습을 적극 권장합니다.
Notable Quotes & Details

일반 독자, AI 초심자

I made a self healing PRD system for Claude code

Claude 코드를 위한 자체 복구 PRD(제품 요구사항 문서) 시스템을 개발하여, 프로젝트 진행 중 발생하는 문제들을 스스로 찾아 해결한다.

  • PRD에 필요한 정보를 요청하고 기존 코드를 검토하여 질문에 답한다.
  • 계획을 여러 파일로 분할하고, 이전 단계가 완료된 후에 다음 단계를 시작한다.
  • 각 단계 완료 후 Codex를 통해 코드에 대한 독립적인 검토를 수행한다.
  • 기존 프로젝트 개선 시, Codex 피드백을 통해 새로운 문제들을 지속적으로 발견하고 해결한다.
  • 시스템이 코드를 확장하는 과정에서 스스로 문제를 찾아 해결하는 방식이다.
Notable Quotes & Details

개발자, AI 시스템 설계자

Open-source list of GenAI-related incidents

GenAI 사용의 윤리적 문제가 부각된 사례들을 모아놓은 오픈소스 목록이 공유되어 LLM의 사용과 한계에 대한 논의를 촉발한다.

  • GenAI 사용과 관련된 윤리적 문제 사례들을 수집한 오픈소스 목록이다.
  • LLM의 사용 및 한계에 대한 논의를 유도하기 위해 공유되었다.
Notable Quotes & Details

AI 연구자, 개발자, 정책 입안자, 일반 독자

Update on my February posts about replacing RAG retrieval with NL querying — some things I've learned from actually building it

RAG 검색을 자연어 질의로 대체하는 방안에 대한 이전 게시물 업데이트로, 실제 구현 경험을 통해 얻은 교훈을 공유한다.

  • LLM이 컨텍스트 창을 문서 저장소에 저장하고 자연어로 질의하여 임베딩 유사성 기반 검색을 대체하는 아이디어를 제시했다.
  • 순수 의미론적 검색은 규모 때문이 아니라 질의와 대상 콘텐츠가 다른 어휘를 사용하여 검색을 놓치는 문제로 인해 성능이 저하될 수 있다.
  • 해결책은 경량 토픽 태그 인덱스로 후보를 좁힌 후 자연어 질의를 실행하는 '인덱스 우선' 전략이다.
  • Claude는 내부 추론을 선호하고 메모리 저장소 질의를 꺼리는 경향이 있어, 시스템 프롬프트에 질의 요구사항을 인코딩해야 했다.
  • 영구 상태가 모델이 아닌 문서 저장소에 있다면, 인터페이스 LLM은 상호 교환 가능해야 한다.
Notable Quotes & Details

LLM 개발자, AI 연구자, RAG 시스템 설계자

Notes: 내용이 잘림.

RTX 5070 Ti + 9800X3D running Qwen3.6-35B-A3B at 79 t/s with 128K context, the --n-cpu-moe flag is the most important part.

RTX 5070 Ti 및 Ryzen 9800X3D 환경에서 Qwen3.6-35B-A3B 모델을 128K 컨텍스트로 79 t/s 속도로 실행하는 방법을 다루며, `--n-cpu-moe` 플래그의 중요성을 강조한다.

  • 일반적인 `--cpu-moe` 설정이 16GB GPU에서 속도의 54%를 손실하게 한다는 점을 지적한다.
  • `--n-cpu-moe N` 플래그는 첫 N개 레이어의 전문가를 CPU에 유지하고 나머지를 GPU에 배치하여 VRAM을 효율적으로 사용하게 한다.
  • N=20 설정으로 54%의 생성 및 프롬프트 속도 향상을 달성했다.
  • 128K 컨텍스트는 `-np 1` 설정 덕분에 거의 무료로 확장 가능하다.
  • Claude Opus 4.7을 활용하여 설정 구축, 벤치마크 실행, 튜닝 반복 등을 자율적으로 수행했다.
Notable Quotes & Details
  • RTX 5070 Ti (16GB GDDR7)
  • Ryzen 9800X3D
  • 32GB DDR5 RAM
  • Qwen3.6-35B-A3B 모델 (22.1 GB)
  • 79 t/s (token per second)
  • 128K context
  • 54% generation speed, +54% prompt speed
  • `--cpu-moe` (baseline): 51.2 Gen t/s, 87.9 Prompt t/s, 3.5 GB VRAM
  • `--n-cpu-moe 20`: 78.7 Gen t/s, 100.6 Prompt t/s, 12.7 GB VRAM
  • `--n-cpu-moe 20 + -np 1 + 128K ctx`: 79.3 Gen t/s, 135.8 Prompt t/s, 13.2 GB VRAM

LLM 개발자, 하드웨어 애호가, 고성능 컴퓨팅 사용자

Notes: 내용이 잘림.

Cloudflare open-sources lossless LLM compression tool

Cloudflare는 LLM 크기를 15-22% 줄이는 무손실 압축 시스템인 Unweight를 오픈소스화하여 VRAM 사용량을 절감합니다.

  • Cloudflare, 무손실 LLM 압축 시스템 'Unweight' 공개.
  • LLM 크기를 15-22% 줄여 VRAM 사용량을 절감.
  • Meta의 Llama-3.1-8B 모델에서 Nvidia H100 GPU 기준 약 3GB VRAM 절약 효과.
  • MLP 가중치 압축에 초점, 향후 어텐션 가중치까지 확장 계획.
  • GPU 커널은 GitHub에 오픈소스화, 기술 논문 발표.
Notable Quotes & Details
  • 15–22%
  • 3 GB
  • Llama-3.1-8B

AI 개발자, LLM 연구자, 시스템 엔지니어

Qwen 3.6 35B A3B Q4_K_M quant evaluation

Qwen 3.6 35B A3B Q4_K_M 양자화 모델이 CPU 환경에서 코드 생성, 상식 추론, 함수 호출 벤치마크에서 평가되었습니다.

  • Qwen 3.6 35B (3B active MoE) 모델의 Q4_K_M 양자화 버전 평가.
  • CPU 환경(32 vCPU, 125GB RAM)에서 llama-cpp-python으로 실행.
  • HumanEval(코드 생성) 47.56%, HellaSwag(상식 추론) 74.30%, BFCL(함수 호출) 46.00% 기록.
  • 상식 추론에서 가장 좋은 성능을 보였으며, CPU에서 22 tokens/sec의 속도.
  • Neo AI Engineer를 통해 평가 진행.
Notable Quotes & Details
  • 35B
  • 3B
  • 47.56%
  • 74.30%
  • 46.00%
  • 22 tokens/sec

AI 연구자, LLM 개발자, 양자화 모델 사용자

Should you shut off thinking when you are coding on say Qwen3.6 35B

Qwen3.6 35B와 같은 모델로 코딩할 때 AI의 '사고' 기능을 비활성화해야 하는지에 대한 논의와 LM Studio에서의 설정 방법을 찾고 있습니다.

  • AI 모델의 '사고' 기능이 시스템 속도를 저하시킬 수 있다는 주장 제기.
  • '사고' 기능을 Claude Code나 Codex의 '할 일 목록'과 유사하게 간주.
  • AI가 '할 일 목록'을 만들고 모델에 전적으로 의존하지 않는 방식이 더 나을 수 있다는 의견.
  • LM Studio에서 Qwen3.6 35B 모델의 '사고' 기능을 비활성화하는 방법을 찾는 어려움.
Notable Quotes & Details
  • "Qwen3.6 35B"

LLM 사용자, AI 개발자, LM Studio 사용자

LM Studio CPU thread pool size vs. tk/s with some MoE layers offloaded to CPU

LM Studio에서 일부 MoE 레이어를 CPU로 오프로드했을 때 CPU 스레드 풀 크기와 토큰/초(tk/s) 간의 관계에 대한 내용입니다.

  • LM Studio 환경에서 MoE 레이어의 CPU 오프로딩 관련.
  • CPU 스레드 풀 크기가 토큰 처리 속도(tk/s)에 미치는 영향 분석.
  • 구체적인 내용 없이 링크만 제공됨.
Notable Quotes & Details

LLM 개발자, LM Studio 사용자, 시스템 엔지니어

Notes: 내용 불완전

AWS Announces General Availability of DevOps Agent for Automated Incident Investigation

AWS가 생성형 AI 기반의 DevOps Agent를 정식 출시하여 개발자와 운영자가 AWS 환경에서 문제 해결, 배포 분석, 운영 작업 자동화를 수행할 수 있도록 지원합니다.

  • DevOps Agent는 re:Invent 2025에서 프리뷰로 소개되었으며, Amazon Bedrock AgentCore를 기반으로 구축되었습니다.
  • 이 에이전트는 애플리케이션 관계를 학습하고 관찰 도구, 런북, 코드 저장소, CI/CD 파이프라인과 통합하여 사고를 분석합니다.
  • 원격 측정, 코드 및 배포 데이터를 상호 연관시켜 문제를 자율적으로 분류하고 해결 속도를 높이며 과거 사고 패턴을 식별하여 향후 중단을 방지하기 위한 개선 사항을 권장합니다.
  • 정식 출시와 함께 Azure 및 온프레미스 환경에서 애플리케이션을 조사하는 기능, 기능 확장을 위한 사용자 지정 에이전트 기술 지원, 사용자 지정 차트 및 보고서가 추가되었습니다.
  • DevOps Agent는 수동적인 Q&A 도구가 아니라 자율적인 팀원으로, CloudWatch 알람, PagerDuty 경고 등 이벤트 소스가 트리거되면 즉시 조사를 시작합니다.
Notable Quotes & Details
  • re:Invent 2025
  • Madhu Balaji
  • Janardhan Molumuri
  • Bill Fine
  • Joe Alioto
  • Tipu Qureshi

DevOps 엔지니어, SRE, 클라우드 운영 관리자

[Webinar] Eliminate Ghost Identities Before They Expose Your Enterprise Data

웹 세미나가 조직의 엔터프라이즈 데이터를 노출하기 전에 '고스트 ID(Ghost Identities)'를 찾아 제거하는 방법에 대해 다룹니다.

  • 2024년 클라우드 침해의 68%는 서비스 계정 및 잊혀진 API 키와 같은 관리되지 않는 비인간 ID로 인해 발생했습니다.
  • 직원 한 명당 40~50개의 자동화된 자격 증명(서비스 계정, API 토큰, AI 에이전트 연결, OAuth 부여)이 있으며, 프로젝트가 끝나거나 직원이 퇴사해도 대부분 활성 상태로 남아 있습니다.
  • AI 에이전트와 자동화된 워크플로우는 보안 팀이 수동으로 추적할 수 없는 속도로 이러한 자격 증명을 증가시키고 있습니다.
  • 이러한 자격 증명 중 다수는 필요하지 않은 관리자 수준 액세스 권한을 가지고 있으며, 하나의 손상된 토큰으로 전체 환경에서 측면 이동이 가능합니다.
  • 이 세션에서는 환경 내 모든 비인간 ID의 전체 검색 스캔을 실행하는 방법, 서비스 계정 및 AI 통합 전반에 걸쳐 권한을 적절히 조정하는 프레임워크, 공격자가 찾기 전에 만료된 자격 증명이 해지되도록 하는 자동화된 수명 주기 정책을 다룹니다.
Notable Quotes & Details
  • 2024년 클라우드 침해의 68%
  • 평균 체류 시간 200일 이상

보안 관리자, IT 관리자, CISO

Mirai Variant Nexcorium Exploits CVE-2024-3721 to Hijack TBK DVRs for DDoS Botnet

Mirai 변종인 Nexcorium이 CVE-2024-3721 취약점을 악용하여 TBK DVR을 DDoS 봇넷으로 장악하고 있습니다.

  • 공격자들은 TBK DVR 및 수명 종료(EoL) TP-Link Wi-Fi 라우터의 보안 취약점을 악용하여 Mirai 봇넷 변종을 배포하고 있습니다.
  • CVE-2024-3721은 TBK DVR-4104 및 DVR-4216 디지털 비디오 녹화 장치에 영향을 미치는 중간 심각도 명령 주입 취약점입니다.
  • IoT 장치는 광범위한 사용, 패치 부족, 취약한 보안 설정으로 인해 대규모 공격의 주요 표적이 되고 있습니다.
  • Nexcorium은 XOR 인코딩된 구성 테이블 초기화, Watchdog 모듈, DDoS 공격 모듈 등 Mirai 변종과 유사한 아키텍처를 가지고 있습니다.
  • 이 멀웨어는 Huawei HG532 장치를 표적으로 하는 CVE-2017-17215에 대한 익스플로잇도 포함하며, 무차별 대입 공격에 사용되는 하드코딩된 사용자 이름과 비밀번호 목록을 통합합니다.
Notable Quotes & Details
  • CVE-2024-3721 (CVSS 점수: 6.3)
  • CVE-2017-17215
  • 2025년 9월
  • Vincent Li

네트워크 관리자, 보안 분석가, IoT 장치 사용자

젠슨 황, 미국 기술 규제에 직격탄..."패배주의이자 광기"

젠슨 황 엔비디아 CEO가 미국의 기술 규제 정책을 '패배주의이자 광기'라고 강도 높게 비판하며, 중국의 자체 AI 스택 구축 가속화에 대한 우려를 표명했습니다.

  • 황 CEO는 드와케시 파텔 팟캐스트에 출연하여 엔비디아가 중국에 칩을 계속 팔면 중국이 기술을 습득해 미국을 추월하거나, 규제 시 중국 시장을 잃게 되는 시나리오에 대해 단호하게 반박했습니다.
  • 그는 시장을 포기하는 것이 진정한 패배주의라고 지적하며, 엔비디아가 단순한 하드웨어 제조사가 아닌 복잡한 소프트웨어 생태계(CUDA)를 가진 기업임을 강조했습니다.
  • 미국의 수출 규제가 오히려 중국이 화웨이 칩을 중심으로 독자적인 AI 스택을 구축하도록 속도를 높였다고 비판했습니다.
  • 전 세계 AI 연구자의 거의 절반이 중국에 있다는 점을 근거로 들며, 만약 글로벌 AI 모델들이 미국 기술 스택이 아닌 다른 스택에서 잘 돌아가게 된다면 미국에 끔찍한 결과가 초래될 것이라고 경고했습니다.
  • 다리오 아모데이 앤트로픽 CEO 등이 AI를 핵무기에 비유하며 규제를 강화해야 한다는 주장에 대해 '광기(lunacy)'라고 표현하며 강하게 반박했습니다.
Notable Quotes & Details
  • 2026-04-16 (현지시각)
  • 드와케시 파텔 팟케스트
  • 40만회 조회
  • 2200여개 댓글
  • "You are not talking to somebody that woke up a loser. That loser attitude and loser premise makes no sense to me. We are not a car."

AI 산업 관계자, 정책 입안자, 기술 뉴스 독자

세계로 번지는 '미소스' 경계령...영국·인도, 모델 조기 접근 권한 요구

앤트로픽의 차세대 AI 모델 '클로드 미소스'가 사이버보안 위협 가능성 때문에 글로벌 금융권과 규제 당국의 경계 대상이 되고 있으며, 영국과 인도 등에서 조기 접근 권한을 요구하고 있다.

  • 앤트로픽의 클로드 미소스는 기존 사이버보안 체계를 무력화할 잠재력을 지닌 것으로 평가된다.
  • 모델 테스트 과정에서 수천 건의 '제로데이' 취약점이 발견되어 보안 강화 및 악용 가능성 양면성을 지닌다.
  • 각국 정책 당국과 금융기관들은 미소스의 위험성에 빠르게 대응하고 있으며, 영국과 인도 등에서 조기 접근 권한을 요구하고 있다.
  • 기술 발전 속도에 비해 규제와 대응 체계가 뒤처지고 있으며, 국제 협력 체계는 아직 초기 단계에 머물러 있다.
  • 앤트로픽은 모델의 위험성을 인지하고 제한된 환경에서 테스트 및 안전장치를 통해 악용 가능성을 최소화하고 있다.
Notable Quotes & Details
  • 16일(현지시간) 블룸버그
  • 17일
  • 앤드루 베일리 영국 중앙은행 총재
  • 크리스틴 라가르드 유럽중앙은행 총재
  • “잘못된 손에 들어가면 심각한 결과를 초래할 수 있다”

사이버 보안 전문가, 금융기관 관계자, 정책 입안자, AI 개발자

오픈AI, 과학팀 담당 부사장 등 임원 3명 사임

오픈AI에서 과학팀 담당 부사장 케빈 웨일 등 핵심 임원 3명이 사임했으며, 이는 회사가 B2B 사업과 '슈퍼앱' 중심으로 조직을 개편하는 과정에서 발생한 것으로 보인다.

  • 오픈AI 과학팀 책임자 케빈 웨일 부사장, 소라 팀 리더 빌 피블스, B2B 애플리케이션 CTO 스리니바스 나라야난이 17일(현지시간) 사임했다.
  • 이들의 사임은 오픈AI가 B2B 사업에 집중하고 '슈퍼앱' 중심으로 조직을 통합하는 움직임과 관련이 있다.
  • 케빈 웨일 부사장은 "과학팀이 다른 부서로 분산되기 때문에" 회사를 떠난다고 밝혔다.
  • 오픈AI는 과학팀 분산을 통해 다른 팀들과 협력을 강화하고, 'AI 연구원' 개발에 집중할 계획이다.
  • 최근 피지 시모 오픈AI 애플리케이션 CEO의 병가 및 다른 임원들의 보직 변경 등 연이은 경영진 개편이 있었다.
Notable Quotes & Details
  • 17일(현지시간)
  • 2024년 6월
  • Today is my last day at OpenAI, as OpenAI for Science is being decentralized into other research teams. It’s been a mind-expanding two years, from Chief Product Officer to joining the research team and starting OpenAI for Science. Accelerating science will be one of the most…

AI 산업 관계자, 투자자, 오픈AI 사용자

앤트로픽, 올인원 디자인 도구 ‘클로드 디자인’ 공개...어도비·캔바 위협

앤트로픽이 대화형 AI 기반의 올인원 디자인 도구 '클로드 디자인'을 공개하며 어도비, 캔바 등 기존 디자인 소프트웨어 시장에 위협을 가하고 있다.

  • 앤트로픽은 17일(현지시간) 대화형 AI를 활용한 시각 디자인 및 프로토타입 제작 도구 '클로드 디자인'을 공개했다.
  • '클로드 오퍼스 4.7' 기반으로 자연어 설명을 통해 디자인 초안을 생성하고, 대화와 편집으로 결과물을 정교화한다.
  • 기업의 코드베이스와 디자인 파일을 읽어 색상, 타이포그래피, UI 컴포넌트를 자동 반영하는 '디자인 시스템' 기능을 제공한다.
  • 완성된 디자인을 AI 코딩 도구 '클로드 코드'로 전달하여 구현까지 이어지는 '핸드오프' 구조를 갖춰 아이디어부터 배포까지 원스톱 처리가 가능하다.
  • 비전문가도 고품질 디자인을 만들 수 있도록 설계되어 기존 디자인 소프트웨어 시장에 큰 영향을 미칠 것으로 예상된다.
Notable Quotes & Details
  • 17일(현지시간)
  • 클로드 오퍼스 4.7

디자이너, 제품 매니저, 마케터, 창업자, AI 및 디자인 소프트웨어 산업 관계자

[4월17일] '인지적 항복'의 경고..."유능한 AI가 인간의 사고를 멈추게 한다"

펜실베이니아대학교 와튼 스쿨 연구진이 '인지적 항복' 개념을 통해 유능한 AI가 인간의 비판적 사고 노력을 멈추게 하고 AI 결과물을 비판 없이 수용하게 만드는 현상을 경고하고 있다.

  • '인지적 항복'은 인간이 AI의 답변에 비판적 사고를 멈추고 AI 결과물을 비판 없이 수용하는 현상을 의미한다.
  • AI가 유능해질수록 인간은 자신의 지식보다 AI 알고리즘의 권위를 높게 평가하며 지적 주도권을 포기하는 경향이 심화된다.
  • AI가 틀린 답을 제시할 때, AI를 활용하는 집단이 스스로 풀 때보다 틀린 답을 고르는 비율이 높았으며 분석 시간도 단축되었다.
  • AI의 신뢰도가 일정 수준을 넘어서면 인간은 비판적 사고를 멈추는 경향을 보이며, 이는 'AI 정확도 상승 → 신뢰 증가 → 인간 검증 비용 증가 → 검증 포기'의 구조로 작동한다.
  • AI가 정신적 인프라가 될 수 있으며, '생각할 수 없는 것이 아니라, 생각할 필요를 느끼지 못하는 상태'가 AI 시대의 진짜 문제가 될 수 있다고 경고한다.
Notable Quotes & Details
  • '인지적 항복(Cognitive Surrender)'
  • 펜실베이니아대학교 와튼 스쿨
  • 지난 2월
  • '사고의 속도: AI가 세상을 어떻게 바꾸고 있는가'

AI 연구자, 일반 독자, 정책 입안자, 인지 과학 연구자

윤두식 보안TF 위원 "한국, 제로데이 방어 환경 아냐"

국가인공지능전략위원회 보안TF 위원인 윤두식 대표가 'AI 시대의 국가 AI 보안 전략과 기본 방향'을 주제로 발표하며, 한국의 제로데이 방어 환경 미비점과 AI 보안 관련 핵심 과제들을 설명했다.

  • 한국은 AI 3대 강국 목표를 위해 AI 기본 사회의 기본인 보안을 갖춰야 한다.
  • 국내 침해사고 신고 접수가 매년 15% 이상 증가하고 있으며, 제로데이 방어 환경이 미비하다.
  • 국가AI전략위의 AI 행동계획은 AI 혁신 생태계 조성, 범국가 AI 기반 대전환, 글로벌 AI기본사회 기여 등 3가지 축을 포함한다.
  • 주요 보안 과제로는 민간·공공 AI 보안 생태계 활성화 (ISMS-P 개편, CVD/VDP, 화이트해커 및 보안산업 육성), AI 기반 사이버보안 체계 구축 (K-사이버보안 LLM, AI-ISAC, 보안 내재화), AI 안보 위협 대응 및 협력 강화 (사이버 안보 플랫폼, CBRN 대비, 기술유출 방지) 등이 있다.
  • 특히 CVD/VDP(협력적 취약점 공개) 운영 체계 도입을 추진하며, 이는 보안 취약점을 체계적으로 신고하고 조치 후 공개하는 프로세스이다.
Notable Quotes & Details
  • "국내에는 매년 15% 이상씩 한국인터넷진흥원(KISA)에 침해사고 신고 접수가 늘어나고 있다."
  • "ISMS-P(정보보호 및 개인정보보호 관리체계 인증)에 '공격 표면 관리 점검' 방법을 반영하는 등 기업이 IT 자산에 대한 취약점 파악 및 관리가 가능하도록 개선할 예정이고, 올해 2분기 시행할 목표"

정보보호 전문가, AI 정책 입안자, 기업 보안 담당자

[안광섭의 AI 진테제] 어지러운 바이브 마케팅...바이브는 '척'에 불과

안광섭 필자가 '바이브(vibe) 마케팅' 현상을 비판하며, 기술의 본질과 AI가 허물고 있는 지식의 해자에 대해 설명한다.

  • '바이브(vibe)'는 한국에서 AI 시대를 앞서가는 것처럼 포장하는 마케팅 용어로 사용되지만, 실제로는 '척'에 불과하다는 비판적인 시각을 제시한다.
  • '바이브 코딩'을 만든 안드레이 카파시조차 1년 뒤 '에이전틱 엔지니어링'이 더 적절하다고 용어와 거리를 두기 시작했다.
  • ICML 학회에서 LLM 무단 사용으로 497편의 논문이 심사 탈락하는 '바이브 페이퍼' 현상이 발생하며, 논문조차 '쓴 척'으로 대체되는 현실을 보여준다.
  • 기술의 본질은 '해자를 없애는 것'이며, AI는 과거 지식과 숙련으로 보호받던 '지식의 해자'를 빠르게 허물고 있다.
  • AX(AI Transformation)와 같은 표현이 본질적인 변화 없이 이름만 갈아 끼우는 마케팅 수단으로 사용되고 있다고 지적한다.
Notable Quotes & Details
  • 안드레이 카파시가 2025년 2월 '바이브 코딩' 용어를 처음 사용했고, 2026년 2월에 이 용어와 거리를 두기 시작했다.
  • 2026년 3월 ICML에서 LLM 무단 사용으로 497편(전체 투고의 약 2%)의 논문이 탈락했다.

AI 산업 종사자, 마케터, 기술 트렌드 분석가, 일반 독자

Notes: 비판적 논평

Jooojub
System S/W engineer
Explore Tags
Series
    Recent Post
    © 2026. jooojub. All right reserved.