Daily Briefing

May 12, 2026
2026-05-11
19 articles

The Qwen 3.6 35B A3B hype is real!!!

My personal test for small local LLM intelligence is to check whether a model has any ability to understand the code that I write for my own academic research.

  • My research is on some pretty niche topics and I doubt that anything like it is substantively present in the training sets for LLMs.
  • A few months ago, small local models' ability to understand my code was nominal at best with Devstral Small 2 being the top performer .
  • However, several small open weight models now have methods of accommodating fairly long contexts (gated delta net, hybrid Mamba2, sliding window attention) which makes them extremely smarter .
  • I can now feed a model an entire academic paper along with accompanying code and ask it to use the paper to work out what the code is doing.
  • I just spent a couple days experimenting with: Qwen 3.6 35B A3B Qwen 3.6 27B Gemma 4 26B A4B Nemotron 3 Nano All of them were able to comprehend my code significantly better than what any small local model could do a few months ago.
Notable Quotes & Details

소프트웨어 개발자, AI 엔지니어

ExLlamaV3 Major Updates!

Turboderp has a been on an absolute tear recently, in the endless battle to cram new llamas into smaller, faster boxes.

  • We started off last month with the release of gemma 4 support , and continued with improved caching efficiency .
  • DFlash support came 2 weeks ago with these impressive results: Category Baseline N-gram/suffix DFlash Agentic, code 55.98 t/s 89.58 t/s (1.60x) 140.61 t/s (2.51x) Agentic, curl 54.03 t/s 74.62 t/s (1.38x) 125.94 t/s (2.33x) Coding 59.21 t/s 75.34 t/s (1.27x) 177.67 t/s (3.00x) Creative 59.10 t/s 67.26 t/s (1.13x) 89.19 t/s (1.50x) Creative (reasoning) 59.03 t/s 64.25 t/s (1.09x) 93.54 t/s (1.58x) Translation 58.11 t/s 55.39 t/s (0.95x) 75.73 t/s (1.30x) Translation (reasoning) 58.08 t/s 80.21 t/s (1.38x) 119.43 t/s (2.06x) More model optimization last week, with these improvements: Model 3090¹ 4090¹ 5090¹ 6000 Pro¹ 5090² 6000 Pro² Qwen3.5-35B-A3B 4.00bpw 5.3% 5.8% 8.6% 10.3% 21.0% 23.5% Qwen3.5-27B 4.00bpw 0.0% 1.9% 8.1% 11.7% 13.1% 15.0% Trinity-Nano 4.15bpw 29.5% 48.6% 52.3% 52.9% 70.5% 72.4% Gemma4-26B-A4B 4.10bpw 3.1% 2.9% 7.8% 9.6% 16.4% 19.2% Gemma4-31B 4.00bpw 4.0% 4.9% 10.0% 8.0% 16.0% 12.0% DFlash model quantization and more bugfixes + efficiency in the last 2 days, and more work on the dev branch already!
  • Come say hi at the exllama discord .
  • submitted by /u/Unstable_Llama [link] [comments]
Notable Quotes & Details
  • 60x
  • 51x
  • 38x
  • 33x
  • 27x
  • 00x
  • 13x
  • 50x
  • 09x
  • 58x
  • 95x
  • 30x
  • 06x
  • 5-35
  • 5.3%
  • .3
  • 5.8%
  • .8
  • 8.6%
  • .6
  • 10.3%
  • 21.0%
  • .0
  • 23.5%
  • .5
  • 5-27
  • 0.0%
  • 1.9%
  • .9
  • 8.1%
  • .1
  • 11.7%
  • .7
  • 13.1%
  • 15.0%
  • 29.5%
  • 48.6%
  • 52.3%
  • 52.9%
  • 70.5%
  • 72.4%
  • .4
  • 4-26
  • 3.1%
  • 2.9%
  • 7.8%
  • 9.6%
  • 16.4%
  • 19.2%
  • .2
  • 4-31
  • 4.0%
  • 4.9%
  • 10.0%
  • 8.0%
  • 16.0%
  • 12.0%

소프트웨어 개발자, AI 엔지니어

PSA: Watch out for extra spaces in chat-template-kwargs when using Qwen3.6 with llama-server

Hey folks, just a heads-up for anyone running Qwen3.6 through llama-server .

  • I ran into an issue where the preserve_thinking parameter wasn't working as expected, even though I had it explicitly enabled in my models.ini config.
  • After some digging, I found that extra spaces in the JSON string are breaking the parser for this specific parameter in my build.
  • ❌ Does NOT work: chat-template-kwargs = { "preserve_thinking": true } ✅ Works: chat-template-kwargs = {"preserve_thinking": true} How to test it: The easiest way to verify if it's working is to send this prompt: think of a number from 1 to 100, don't tell me what it is, I'm going to guess it Then check the reasoning/thinking output to verify that the "hidden" number stays consistent across your guesses.
  • If it changes, your template kwargs are likely being parsed incorrectly.
  • My env: llama-server v9102 (7d442abf5) | RTX 4090 Might be a minor parsing quirk in how llama-server handles JSON in the ini file, but it's definitely worth checking.
Notable Quotes & Details

AI 연구자, 학계

Any news (or hope) of Qwen-3.6 14B and 9B distills for local coding ?

As the title suggests.

  • I'm already testing (with some success, and few challenges) usage of Qwen-3.5 9B with a new work laptop that I've received with RTX 1000 6GB VRAM (I know it seems like a joke in today's time and age).
  • I am using it with `pi` as the terminal coding harness.
  • The issue I am facing with Qwen-3.5 9B is that I've encountered some (relatively infrequent) issues around: How it handles directories / folders - more than once, strangely I got a deeply nested folder structure for final code/test artefacts Recognized test run to be failure, while it was actually a success Same prompts when used with gemini-2.5-flash and gemini-2.5-flash-lite don't see such issues, indicating the possibility that the issue is not with `pi`.
  • I've read some reports of `pi` sometimes struggling with Qwen-3.5 tool-calling, and that is apparently fixed in Qwen-3.6.
  • Thus wondering if anyone heard or Qwen-3.6-27B dense model distillations with 9B, 14B might also be released, enabling using in smaller GPUs.
Notable Quotes & Details
  • 6-27

소프트웨어 개발자, AI 엔지니어

Markdown browser for LLMs

AI 에이전트가 웹 페이지를 마크다운으로 렌더링하여 추론할 수 있도록 돕는 TextWeb이라는 도구에 대한 소개.

  • AI 에이전트를 위한 마크다운 웹 렌더러인 TextWeb을 개발함.
  • 값비싼 스크린샷 대신 마크다운으로 웹 페이지를 렌더링하여 LLM이 기본적으로 추론할 수 있도록 함.
  • JavaScript 실행 및 대화형 요소 주석을 지원하며 CLI 및 MCP 서버를 제공.
  • LLM이 웹 페이지 탐색, 스크롤, 텍스트 입력, 버튼 클릭 등을 수행할 수 있게 함.
  • llama.cpp 웹 UI와 연동되며, chrisrobison/textweb의 텍스트 그리드 렌더러를 기반으로 함.
Notable Quotes & Details

AI 개발자, LLM 연구자

Running my agents in a VPS

AI 코딩 에이전트를 VPS에서 비동기적이고 독립적으로 실행하는 방법과 그 설정에 대한 경험 공유.

  • Claude Code, Codex, Overlay 등 코딩 에이전트를 VPS에서 완전 비동기 모드로 실행하여 독립적인 작업 완수 실험.
  • 에이전트의 완전한 자율성을 위해 `--dangerously-skip-permissions` 플래그 사용.
  • 개인 컴퓨터와 완전히 격리된 환경에서 에이전트 실행.
  • Hetzner VPS를 활용하며, 각 에이전트별 사용자 설정 및 Git 워크플로를 통한 협업.
  • git, tmux, curl과 같은 필수 의존성 설치.
Notable Quotes & Details
  • Hetzner

AI 에이전트 개발자, 시스템 관리자, DevOps 엔지니어

Notes: 내용 불완전

I jailbroke my old Kindle to install KOReader - but there's a better way to extend its life

오래된 킨들 디바이스의 수명 연장 방법으로 탈옥과 KOReader 설치, 그리고 아마존의 지원 종료에도 불구하고 사용할 수 있는 대안을 제시.

  • 킨들 탈옥은 아마존의 소프트웨어 제한을 우회하여 기기를 수정하는 방법.
  • 오래된 킨들 모델은 5월 20일부로 아마존의 기술 지원이 중단될 예정.
  • 2013년 이전에 출시된 킨들 및 파이어 태블릿은 더 이상 소프트웨어 지원을 받지 못함.
  • KOReader와 같은 대안 소프트웨어를 통해 구형 킨들의 사용성을 연장할 수 있음.
  • ZDNet의 추천은 광범위한 테스트, 연구 및 비교 쇼핑을 기반으로 함.
Notable Quotes & Details
  • 2026-05-20
  • 2013

킨들 사용자, 전자책 기기 사용자, 기술 애호가

Notes: 내용 불완전

I tested whether Gemini, ChatGPT, and Claude can analyze videos - this one wins

Gemini, ChatGPT, Claude 등 주요 AI 모델들이 비디오 콘텐츠를 분석하고 이해하는 능력에 대한 비교 테스트 결과.

  • Gemini는 YouTube, MP4, MOV 파일을 시청할 수 있으며 비디오 분석 능력이 뛰어남.
  • Claude는 아직 비디오를 직접 처리할 수 없음.
  • ChatGPT는 더 심층적인 비디오 작업을 위해 Codex의 도움이 필요함.
  • AI 모델들이 텍스트와 이미지는 잘 이해하지만 비디오 이해도는 다름.
  • 비디오 테스트에는 YouTube 영상, DJI Neo 2 드론 모션 테스트, YouTube 업로드 전 MOV 원본 파일이 사용됨.
  • ChatGPT Plus와 Gemini Pro의 비교 테스트도 언급됨.
Notable Quotes & Details
  • $20-per-month ChatGPT Plus plan
  • $20-per-month Gemini Pro

AI 연구자, 일반 사용자, 기술 저널리스트

Notes: 내용 불완전

Samsung Galaxy Z Flip 7 vs. Motorola Razr Ultra: I've used both, and this phone is my pick

삼성 갤럭시 Z 플립 7과 모토로라 레이저 울트라 스마트폰을 비교 분석하고 필자의 추천을 제시합니다.

  • ZDNET의 추천은 광범위한 테스트, 연구, 비교 쇼핑 및 소비자 리뷰 데이터를 기반으로 합니다.
  • 모토로라는 2026년형 레이저 시리즈를 공개했으며, 레이저 울트라가 새로운 플래그십 모델입니다.
  • 기사는 450달러짜리 삼성 폰이 구글 및 원플러스의 경쟁 모델보다 더 낫다고 추천합니다.
  • ZDNET의 에디토리얼 콘텐츠는 광고주에게 영향을 받지 않으며 독자에게 정확한 정보를 제공하는 것을 목표로 합니다.
Notable Quotes & Details
  • $450 Samsung phone

일반 소비자, 스마트폰 구매 예정자

I stopped using a smart plug with these 5 common household devices - here's why

스마트 플러그를 사용할 때 피해야 할 5가지 일반적인 가전제품과 그 이유에 대해 설명합니다.

  • 스마트 플러그는 램프, 충전기, 선풍기 등 일부 가전제품에 유용하지만 모든 기기에 적합하지 않습니다.
  • 열을 발생시키거나, 압축기가 있거나, 1,500W를 초과하는 기기에는 스마트 플러그 사용을 피해야 합니다.
  • 스마트 플러그는 최대 15A의 전력 소모량을 지원하므로, 이를 초과하는 대형 가전제품에는 사용해서는 안 됩니다.
  • 부적절한 사용은 회로 차단, 플러그 손상, 화재 위험으로 이어질 수 있습니다.
  • 스마트 플러그에서 탄 냄새가 나거나 변형 흔적이 보이면 사용을 중단해야 합니다.
Notable Quotes & Details
  • 15A
  • 1,500W

일반 소비자, 스마트 홈 사용자

Why Mastering EVM Is Essential for Next-Generation Wireless Systems

차세대 무선 시스템에서 변조 정확도를 측정하는 핵심 지표인 EVM(Error Vector Magnitude)의 중요성과 이해를 다룹니다.

  • EVM은 Wi-Fi, LTE, 5G NR 시스템에서 변조 정확도를 정량화하는 주요 지표입니다.
  • EVM은 이상적인 컨스텔레이션 포인트와 측정된 포인트 간의 거리로 계산되며, 백분율 및 데시벨 형식으로 표현됩니다.
  • 높은 변조 오더는 처리량을 증가시키지만, 신호 송수신 시 더 높은 정확도를 요구합니다.
  • EVM 저하의 원인은 진폭 효과, 위상 효과, I/Q 불완전성, 구성 문제 등 네 가지 주요 범주로 나눌 수 있습니다.
  • 컨스텔레이션 다이어그램을 시각적으로 검사하여 EVM 저하의 근본 원인인 위상 노이즈, 증폭기 압축, 잡음 등을 진단할 수 있습니다.
Notable Quotes & Details

무선 통신 엔지니어, 연구원, 학생

Article: Local-First AI Inference: A Cloud Architecture Pattern for Cost-Effective Document Processing

클라우드 AI 시스템에서 비용 효율적인 문서 처리를 위한 로컬 우선 AI 추론 아키텍처 패턴을 소개합니다.

  • 로컬 우선 AI 추론 패턴은 문서의 70~80%를 API 호출 없이 로컬에서 처리하여 Azure OpenAI 비용을 75% 절감합니다.
  • 이 패턴은 확신도 기반 라우팅을 통해 클라우드 AI 호출을 줄입니다.
  • 공간, 앵커, 형식, 문맥 기준을 포함하는 복합 점수 함수가 단일 기준 접근 방식보다 성능이 우수합니다.
  • 모델 업그레이드는 공급업체 벤치마크가 아닌 작업별 검증 세트로 평가해야 합니다.
  • 3단계 아키텍처(로컬 확정적, 클라우드 AI, 사람 검토)는 에러율을 제한하여 클라우드 전용 또는 로컬 전용 접근 방식의 단점을 보완합니다.
Notable Quotes & Details
  • 70~80%
  • 75%
  • 55%
  • GPT-5+
  • GPT-4.1
  • 89%
  • 98%
  • 400-file validation set

AI/ML 엔지니어, 클라우드 아키텍트, 문서 처리 시스템 개발자

Netflix Introduces ‘Model Lifecycle Graph’ to Scale Enterprise Machine Learning

넷플릭스가 엔터프라이즈 규모의 머신러닝 시스템 관리를 위해 데이터셋, 모델, 기능 등의 관계를 매핑하는 '모델 라이프사이클 그래프'라는 그래프 기반 아키텍처를 도입했다.

  • 넷플릭스는 ML 시스템 확장에 따른 관리 복잡성 증가 문제 해결을 위해 '모델 라이프사이클 그래프'를 제시했다.
  • 이 그래프 기반 시스템은 ML 자산과 그 관계를 핵심 인프라로 간주하여 데이터셋, 기능, 모델, 평가, 워크플로우 간의 의존성을 모델링한다.
  • 이를 통해 ML 자산의 계보를 추적하고, 변경 사항이 다운스트림 시스템에 미치는 영향을 파악하며, 재사용 가능한 ML 자산을 찾고 모델 구성 방식을 검토할 수 있다.
  • ML 자산이 독립적으로 존재하지 않고 서로 연결되어 있기 때문에 그래프 구조가 ML 시스템 모델링에 적합하다는 것이 넷플릭스 엔지니어들의 설명이다.
Notable Quotes & Details

머신러닝 엔지니어, 데이터 과학자, ML 플랫폼 개발자

Your Purple Team Isn't Purple — It's Just Red and Blue in the Same Room

사이버 보안에서 공격자의 시간이 점점 빨라지고 방어팀의 대응이 늦어지는 현상과 함께, 이론적으로는 효과적인 '퍼플 팀' 운영이 현실에서는 제대로 이루어지지 않는 문제점을 지적한다.

  • CVE 공개 후 실제 익스플로잇까지 걸리는 평균 시간이 2024년 56일에서 2026년 현재 10시간으로 급격히 단축되었다.
  • 방어팀의 대응 시간도 빨라졌지만 공격자의 속도를 따라가지 못하고 있다.
  • '퍼플 팀'은 레드팀(공격 시뮬레이션)과 블루팀(방어)의 협력을 통해 보안 태세를 강화하는 개념이지만, 현실에서는 소통 부족, 긴 회의, 문서 작업 등으로 인해 효과적으로 운영되지 못하고 있다.
  • 인간적인 병목 현상(읽지 않은 메시지, 수동 작업, 승인 대기 등)이 방어팀의 대응 시간을 지연시키는 주요 원인이다.
Notable Quotes & Details
  • 2024년 평균 CVE-익스플로잇 시간: 56일
  • 2025년 평균 CVE-익스플로잇 시간: 23일
  • 2026년 평균 CVE-익스플로잇 시간: 10시간 (3,532개 CVE-익스플로잇 쌍 기준)

사이버 보안 전문가, CISO, 보안팀 관리자

미소스, METR 자율성 평가서 '16시간' 기록..."측정 한계 돌파"

비영리 AI 연구기관 METR의 평가에 따르면, '클로드 미소스 프리뷰' 초기 버전이 인간 전문가 기준 약 16시간이 걸리는 작업을 50% 성공률로 수행하며 AI의 자율성이 측정 한계를 돌파할 정도로 빠르게 발전하고 있음을 보여준다.

  • METR은 AI의 자율 수행 능력을 측정하는 새로운 지표인 '작업 완료 시간 지평(task-completion time horizon)'을 기반으로 AI 모델을 평가한다.
  • '클로드 미소스 프리뷰'는 인간 기준 16시간 이상이 걸리는 작업을 50% 성공률로 수행하여, 지난 2월의 '클로드 오퍼스 4.6'(11시간 59분)을 넘어섰다.
  • 현재 평가 도구 모음으로는 16시간 이상의 작업 시간을 신뢰성 있게 측정하기 어렵다고 METR은 밝혀, 최신 AI 모델의 자율 수행 능력이 기존 평가 체계의 상한선에 근접하거나 넘어섰음을 시사한다.
  • AI 에이전트 개념 도입 이후 AI 모델의 작업 수행 시간은 3개월마다 2배씩 증가하는 추세이며, 신뢰성, 오류 복구 능력, 도구 활용 능력 향상이 핵심 요인으로 꼽힌다.
  • METR은 5년 안에 AI가 인간에게 한 달 걸리는 소프트웨어 업무의 상당수를 자동화할 가능성이 있지만, AI 자율성 증가는 오작동이나 악의적 활용 시 위험성 확대로 이어질 수 있다고 경고한다.
Notable Quotes & Details
  • 클로드 미소스 프리뷰: 인간 전문가 기준 약 16시간 작업 (50% 성공률)
  • 클로드 오퍼스 4.6: 작업 완료 시간 11시간 59분
  • METR이 준비한 총 228개 과제 중 인간 기준 16시간 이상 걸리는 문제는 단 5개
  • 2024년 이후 AI 모델의 작업 수행 가능 시간: 3개월마다 2배 증가 추세

AI 연구자, AI 개발자, 정책 입안자, 기술 트렌드 분석가

"널 안정적으로 받아줄게"...중국인 짜증 나게 한 '챗GPT'의 말버릇

챗GPT가 중국어로 대화할 때 "널 안정적으로 받아줄게"와 같은 지나치게 감성적이고 부자연스러운 반복 표현을 사용해 중국 사용자들에게 피로감을 주며, 이는 AI가 문화적 뉘앙스를 습득하는 데 실패하고 서구 중심의 데이터 학습 구조에서 비롯된 '모드 붕괴' 현상으로 분석된다.

  • 챗GPT가 중국어 대화에서 "我会稳稳地接住你"("널 안정적으로 받아줄게")와 같은 과도하게 감성적이고 부자연스러운 표현을 반복적으로 사용한다.
  • 또 다른 반복 표현인 "砍一刀"(가격을 깎아달라)는 중국 전자상거래 플랫폼의 광고 문구에서 학습된 것으로 보인다.
  • 이러한 현상은 대형언어모델(LLM)이 특정 표현이나 문체를 지나치게 반복 학습하는 '모드 붕괴(mode collapse)'로 설명되며, 문화적 뉘앙스 습득 실패와 서구 중심의 데이터 학습 구조가 원인으로 지목된다.
  • 영어 표현 "I’ve got you"를 직역한 "接住你"가 중국 심리 상담 문화에서 사용되던 표현이 일반 대화에 무분별하게 사용되어 어색함을 유발한다.
  • 최근 클로드, 딥시크 등 다른 AI 모델에서도 유사한 표현이 나타나고 있으며, 이는 유사한 데이터셋 사용 또는 모델 간 지식 증류 때문으로 분석된다.
Notable Quotes & Details
  • 와이어드 7일(현지시간) 보도

AI 연구자, 언어 모델 개발자, 일반 사용자, 문화 평론가

오픈클로 누르고 '헤르메스 에이전트'가 글로벌 1위에 오른 이유는

누스 리서치가 개발한 ‘헤르메스 에이전트(Hermes Agent)’는 10일(현지시간) 오픈라우터(OpenRouter) 글로벌 일일 앱 및 에이전트 순위에서 기존 강자 ‘오픈클로(OpenClaw)’를 제치고 1위에 올랐다.

  • 현재 헤르메스 에이전트는 하루 약 2240억 토큰을 처리하며, 1860억 토큰 수준의 오픈클로를 넘어 가장 활발하게 사용되는 오픈소스 AI 에이전트로 자리 잡았다.
  • 이번 순위 변화는 단순한 트래픽 경쟁 이상의 의미를 가진다.
  • 오픈클로 창립자인 피터 스타인버거가 올해 2월 오픈AI에 합류한 이후, 오픈클로는 독립 오픈소스 재단 체제로 전환됐다.
  • 오픈AI는 후원사로 참여하고 있지만, 시장에서는 이를 계기로 오픈소스 에이전트 생태계가 새로운 국면에 들어섰다는 평가가 나온다.
  • 두 프로젝트의 경쟁은 단순한 기능 비교가 아니라 AI 에이전트 설계 철학의 차이로 이어진다.
Notable Quotes & Details
  • 2026-25253
  • 2026-7113

소프트웨어 개발자, AI 엔지니어

오픈AI, GPT-5 훈련 중 ‘추론 조작’ 위험성 노출...“AI가 인간을 속일 수도”

오픈AI가 일부 GPT-5 계열 모델을 강화 학습(RL)으로 훈련하는 과정에서, 모델의 사고 과정인 사고 사슬(CoT)을 의도치 않게 평가 기준으로 사용한 사실이 뒤늦게 확인됐다.

  • 이는 AI가 인간의 보상 체계에 맞춰 추론 과정을 꾸며낼 수도 있다는 점에서 중요성이 강조됐다.
  • 오픈AI는 7일(현지시간) 새로 도입한 자동 감지 시스템을 점검하던 중 일부 공개 모델의 학습 과정에 CoT 평가가 실수로 포함돼 있었다는 점을 발견했다고 밝혔다.
  • CoT는 AI가 문제를 해결하기 위해 내부적으로 전개하는 추론 과정을 뜻한다.
  • 오픈AI는 그동안 이 추론 과정을 모니터링하는 것이 모델의 오작동이나 위험 행동, 정렬(alignment) 문제를 탐지하는 데 매우 중요하다고 강조해 왔다.
  • 그러나 동시에 CoT 자체를 RL 보상 체계의 평가 대상으로 삼으면, 모델이 실제 생각과 다른 ‘보여주기식 추론’을 학습할 수 있다는 우려도 제기돼 왔다.
Notable Quotes & Details
  • 0.6%
  • .6
  • 3.8%
  • .8

소프트웨어 개발자, AI 엔지니어

'양날의 검'이 된 AI...팔란티어, AI를 '슬롭'이라고 비난

대표적인 AI 수혜주로 꼽히는 팔란티어가 'AI의 역설'에 직면하게 됐다.

  • 그러자 이 회사의 경영진은 AI가 조잡하다는 비난을 쏟아내며 경계에 나섰다.
  • 월스트리트저널(WSJ)에 따르면, 팔란티어 경영진은 지난 4일(현지시간) 실적 발표 컨퍼런스콜을 통해 주요 AI 연구소들의 모델이 대기업 시스템에 통합되기에는 지나치게 조잡하고 신뢰할 수 없는 "슬롭(Slop)"이라고 강조했다.
  • 쓰레기를 뜻하는 이 단어는 무려 17번이나 반복됐다.
  • 알렉스 카프 CEO는 AI 도입을 고려하는 기업들이 "온갖 허접한 AI 업체를 살펴봐야 한다"라며 "하지만 대부분은 결국 팔란티어로 돌아온다"라고 말했다.
  • 팔란티어는 대규모 데이터를 중앙 집중화, 관리 및 분석 소프트웨어를 판매해 정부 기관과 민간 기업이 공급망 계획이나 무기 투하 위치 선정과 같은 의사 결정을 내리는 데 도움을 준다.
Notable Quotes & Details
  • 1600%
  • 20%
  • 137%
  • 45%

비즈니스 리더, 투자자, AI 산업 관계자

Jooojub
System S/W engineer
Explore Tags
Series
    Recent Post
    © 2026. jooojub. All right reserved.