Arcee Trinity-Large-Thinking: 400B Açık Kaynak Model
Arcee AI, 399 milyar parametreli Trinity-Large-Thinking modelini Apache 2.0 lisansla yayınladı. Opus 4.6'ya yakın performans, %96 ucuz.

San Francisco merkezli 30 kişilik bir ekip, toplam sermayesinin yarısını tek bir eğitim turuna yatırdı. 2048 Nvidia B300 Blackwell GPU, 33 gün ve 20 milyon dolar — Arcee AI'ın bahsi büyüktü ve sonuç, açık kaynak AI alanında uzun süredir beklenen bir boşluğu doldurdu.
Arcee Trinity-Large-Thinking, 399 milyar parametreli bir Mixture-of-Experts (MoE) modeli. Ama "400 milyar" rakamı yanıltmasın: modelin ayırt edici özelliği, herhangi bir token için yalnızca yüzde 1,56'sını — yaklaşık 13 milyar parametreyi — aktif etmesi. Bu seyreltilmiş mimari, devasa bir sistemin derin bilgisini taşırken çok daha küçük bir modelin hızı ve işletme maliyetiyle çalışıyor. Pratikte bu, aynı donanım üzerinde rakiplerinden 2 ila 3 kat daha hızlı çıkarım anlamına geliyor.
Performans rakamları dikkat çekici. Otonom ajansal görevleri ölçen PinchBench'te Trinity 91,9 puan aldı — piyasanın lideri Claude Opus 4.6'nın 93,3'üne sadece 1,4 puan uzakta. IFBench'te 52,3 ile Opus 4.6'nın 53,1'ine neredeyse eşit. AIME25 matematik testinde ise 96,3 ile üst düzey Kimi-K2.5'e denk ve GLM-5 (93,3) ile MiniMax-M2.7'yi (80,0) geride bırakıyor. SWE-bench Verified gibi kodlama karşılaştırmalarında frontier kapalı modellerin hâlâ avantajı var — ama token başına maliyet farkı çarpıcı: milyon çıktı tokeni için 0,90 dolara karşı Opus 4.6'nın 25 doları. Yüzde 96 daha ucuz.
"Thinking" güncellemesi, modelin önceki "Preview" sürümüne yöneltilen en büyük eleştiriyi cevaplıyor. Ocak ayındaki erken kullanıcılar, modelin karmaşık çok adımlı talimatlarda bocaladığını ve ajansal görevlerde "vasat" kaldığını belirtmişti. Yeni sürüm, yanıt üretmeden önce bir "düşünme" aşaması ekliyor — içsel akıl yürütme döngüleri sayesinde çoklu araç çağrısı ve uzun dönemli ajan senaryolarında tutarlılık büyük ölçüde artıyor.
Jeopolitik bağlam, Apache 2.0 lisans tercihini daha da anlamlı kılıyor. 2025'te açık kaynak AI modellerine öncülük eden Çin laboratuvarları — başta Alibaba'nın Qwen ekibi — 2026'da tescilli kurumsal platformlara kaydı. Meta, Llama 4'ün karışık karşılanmasından sonra frontier açık kaynak alanında geri adım attı. Amerikan açık kaynak cephesinde OpenAI'ın gpt-oss'u 120 milyar parametrede tavanlıyor, Google'ın Gemma 4'ü bu hafta Apache 2.0 ile çıkmıştı ama ölçek olarak daha küçük. Trinity-Large-Thinking, bu boşluğu dolduran ender ABD yapımı frontier açık model olarak konumlanıyor.
Arcee ayrıca Trinity-Large-TrueBase adlı ham 10 trilyon tokenlik kontrol noktasını da yayınladı — talimat ayarı ve pekiştirmeli öğrenme uygulanmamış bir "bozulmamış" temel. Finans ve savunma gibi sıkı düzenlemeye tabi sektörlerdeki araştırmacılar için, sıfırdan başlayarak özel hizalamalar yapma imkânı sunuyor. Hugging Face'te OpenRouter üzerinden sunum yapan Trinity-Large, Mart ayında ABD'de en çok kullanılan açık model olarak günlük 80,6 milyar tokene ulaştı.