Çin’den ‘beyin-benzeri’ dil modeli: SpikingBrain 1.0, 100 kata kadar hız vadediyor

Çin Bilimler Akademisi Otomasyon Enstitüsü, ‘SpikingBrain 1.0’ adlı beyin-benzeri büyük dil modelini tanıttı. Sistemin MetaX tabanlı yerli çip kümelerinde haftalarca kararlı çalıştığını bildirdi.

Giriş: 10.09.2025 - 19:38
Güncelleme: 10.09.2025 - 19:38
Çin’den ‘beyin-benzeri’ dil modeli: SpikingBrain 1.0,  100 kata kadar hız vadediyor

Çin Bilimler Akademisi’ne bağlı Otomasyon Enstitüsü’nden araştırmacılar, SpikingBrain 1.0 adını verdikleri yeni bir yapay zekâ sistemi duyurdu. ‘Beyin-benzeri’ büyük dil modeli olarak tanımlanan sistem, endüstri standardı NVIDIA hızlandırıcıları yerine Çin menşeli donanımlar üzerinde çalışmak üzere tasarlandı ve düşük güç tüketimine odaklandı.


ANA AKIM MODEL ELEŞTİRİSİ

Hakemli olmayan teknik raporda ekibin, Transformatör tabanlı LLM’lerin verimlilik darboğazlarına dikkat çektiği aktarılıyor: Eğitim hesaplamasının dizi uzunluğuna göre ikinci dereceden ölçeklendiği, çıkarımda belleğin doğrusal büyüdüğü not düşüldü. SpikingBrain 1.0’ın ise, tipik veri gereksiniminin yüzde 2’sinden azıyla eğitilmesine rağmen belirli görevlerde kayda değer hız kazançları sağladığı belirtildi.


BEYİN BENZERİ MİMARİ

Modelin temelinde, biyolojik nöronların davranışını taklit eden spiking hesaplama yer alıyor. ChatGPT gibi klasik araçların bilgi işlemek için geniş ağları sürekli etkin tuttuğu anlatılırken, SpikingBrain 1.0’ın çoğunlukla sessiz kaldığı; nöronların yalnızca girdiyle olay tetiklemeli biçimde sinyal ürettiği ifade edildi. Bu seçici yanıt, hem enerji tüketimini azaltmanın hem de işlem süresini kısaltmanın anahtarı olarak sunuldu.


UZUN BAĞLAM AVANTAJI

Ekip, iki farklı ölçekli sürüm geliştirdi: 7 milyar ve 76 milyar parametreli modeller. Her iki sürüm de toplamda yaklaşık 150 milyar token ile eğitildi. Uzun dizi işleme verimliliği özellikle vurgulandı: 7B modelin, 4 milyon token uzunluğundaki bir isteme standart bir sisteme kıyasla 100 kat daha hızlı yanıt verdiği; başka bir testte 1 milyon tokenlık bağlamdan yalnızca ilk token üretilirken Transformatör mimarilerine göre 26,5 kat hızlanma gözlendiği bilgisi paylaşıldı.


NVIDIA DIŞI PLATFORM

Araştırmacılar, sistemin Şanghay merkezli MetaX Integrated Circuits tarafından geliştirilen platformda—yüzlerce MetaX çipinden oluşan bir küme üzerinde—haftalarca kararlı biçimde çalıştığını belirtti. Yerli donanım üzerindeki bu sürdürülebilir performansın, modelin gerçek dünya uygulamalarına ölçeklenebilir dağıtımı için kritik olduğu kaydedildi.


DÜŞÜK GÜÇ HEDEFİ

Projenin, yalnızca ~20 watt güçle çalışan insan beyninin verimliliğini esin kaynağı alan nöromorfik hesaplama çalışmaları içinde konumlandığı ifade edildi. Ekip, yaklaşımın “beyin mekanizmalarından ilham” aldığına dikkat çekti ve olay odaklı işlemle hesap yükünü asgariye indirmeyi amaçladığını aktardı.


UYGULAMA ALANLARI GENİŞ

SpikingBrain 1.0’ın, hız ve verimliliğin kritik olduğu uzun hukuki/tıbbi belge analizi, yüksek enerji fiziği deney verilerinin işlenmesi ve DNA dizileme gibi karmaşık iş yüklerinde fark yaratabileceği değerlendiriliyor. Araştırmacılar, sonuçların sadece NVIDIA dışı platformlarda verimli büyük model eğitiminin uygulanabilirliğini göstermediğini; aynı zamanda beyin-esinli modellerin ölçeklenebilir dağıtımı için yeni yönler açtığını vurguladı.