Arcee's new, open source Trinity-Large-Thinking is the rare, powerful U.S.-made AI model that enterprises can download and customize
Summary
미국 스타트업 Arcee AI가 아파치 2.0 라이선스로 배포되는 3,990억 파라미터 규모의 오픈소스 추론 모델 Trinity-Large-Thinking을 공개했다.
Key Points
- Arcee AI(직원 30명)가 2048개의 NVIDIA B300 Blackwell GPU를 활용해 33일간 훈련한 Trinity-Large-Thinking을 Apache 2.0 라이선스로 공개
- 전체 3,990억 파라미터 중 실제 활성화되는 파라미터는 1.56%(약 130억)에 불과한 MoE(Mixture-of-Experts) 아키텍처 채택
- 추론 속도가 동급 모델 대비 2~3배 빠르며, 기업의 완전한 커스터마이징·상업적 사용을 허용
- 중국산 오픈소스 모델에 대한 대안으로 '미국산 오픈 웨이트' 전략을 표방
- 훈련비용 약 2,000만 달러(전체 펀딩의 절반)를 단일 훈련 런에 투입한 과감한 베팅
Notable Quotes & Details
Notable Data / Quotes
- 399B 전체 파라미터 중 13B(1.56%)만 토큰별 활성화
- 훈련에 $20M 투자 — 회사 전체 펀딩($50M 미만)의 약 절반
- Hugging Face CEO Clément Delangue: "미국의 강점은 항상 스타트업이었다. Arcee는 그것이 가능함을 보여준다"
Intended Audience
AI 연구자, 엔터프라이즈 개발자, AI 정책 관계자