istanbul-ticaret-gazetesi
istanbul-ticaret-gazetesi

Yapay zekada mantık yürütme hızı artıyor: Bellek kullanımı 8 kat düşüyor

Edinburgh Üniversitesi ve NVIDIA araştırmacıları, yapay zeka modellerinin bellek kullanımını sekiz kat azaltırken performansını artıran yeni bir sıkıştırma yöntemi geliştirdi. ‘Dinamik Bellek Seyreltme’ adı verilen bu teknoloji, enerji tasarrufu sağlarken karmaşık problemlerdeki doğruluk oranını yükseltiyor.

Giriş: 23.12.2025 - 18:20
Güncelleme: 23.12.2025 - 18:20
Yapay zekada mantık yürütme hızı artıyor: Bellek kullanımı 8 kat düşüyor

Yapay zeka teknolojilerinin endüstriyel ve ticari kullanımı yaygınlaşırken, büyük dil modellerinin (LLM) gerektirdiği yüksek enerji ve bellek kapasitesi önemli bir maliyet kalemi oluşturmaya devam ediyor. Bu darboğazı aşmak için çalışan Edinburgh Üniversitesi ve teknoloji devi NVIDIA uzmanları, yapay zeka modellerinde verimliliği kökten değiştirecek yeni bir yöntem geliştirdi.


Geliştirilen yöntem, yapay zeka modellerinin karmaşık görevlerdeki doğruluğunu artırmakla kalmıyor, aynı zamanda önemli ölçüde enerji tasarrufu vadediyor. Araştırma sonuçlarına göre, sıkıştırılmamış bir modele kıyasla sekiz kat daha az bellek kullanan modeller, matematik, fen ve kodlama testlerinde çok daha başarılı sonuçlar elde etti.


‘DİNAMİK’ ÇÖZÜM: DMS TEKNOLOJİSİ

Yapay zeka modellerinin problem çözme yeteneği, ‘akıl yürütme dizileri’ üzerinden ilerler. Ancak modelin belleği (KV önbelleği), oluşturulan verileri depolarken bir darboğaz yaratır ve işlem sürecini yavaşlatır.


Bu sorunu çözmek için ekip, ‘Dinamik Bellek Seyreltme’ (DMS) adı verilen bir teknik geliştirdi. DMS, her bir veri birimini (belirteç/token) saklamak yerine, hangilerinin hayati önem taşıdığına karar vererek gereksiz olanları siliyor.


Sistemin en yenilikçi yönü ise silme işlemindeki stratejisi. Karar anı ile silme anı arasında bırakılan hafif gecikme sayesinde, silinecek belirteçlerdeki değerli bilgiler, korunan belirteçlere aktarılıyor. Bu sayede model, ek işlemci gücüne ihtiyaç duymadan daha derinlemesine ‘düşünme’ ve alternatif çözümleri tarama kapasitesine erişiyor.


MATEMATİK VE KODLAMADA REKOR ARTIŞ

Araştırmacılar, DMS yöntemini Llama ve Qwen gibi popüler yapay zeka modelleri üzerinde test etti. Standartlaştırılmış testlerde elde edilen sonuçlar, teknolojinin potansiyelini gözler önüne serdi:

  • Matematik: ABD Matematik Olimpiyatı eleme sınavı AIME 24'te, sıkıştırılmış modeller ortalama 12 puan daha yüksek performans gösterdi.
  • Bilim: Doktora düzeyindeki biyoloji, kimya ve fizik sorularını içeren GPQA Diamond sınavında modeller 8 puandan fazla artış kaydetti.
  • Yazılım: Kod yazma yeteneklerini ölçen LiveCode Bench testinde ise sıkıştırılmamış modellere göre 10 puanlık bir iyileşme sağlandı.

Yapay zekada mantık yürütme hızı artıyor: Bellek kullanımı 8 kat düşüyor


GİYİLEBİLİR TEKNOLOJİLER İÇİN FIRSAT

Edinburgh Üniversitesi Bilişim Fakültesi Öğretim Üyesi Dr. Edoardo Ponti, "Modellerimiz aynı kalitede daha hızlı akıl yürütme yapabiliyor. Bu da matematik, bilim ve kodlamadaki karmaşık problemleri çözme yeteneklerini geliştiriyor" değerlendirmesinde bulundu.


Bu teknoloji sadece dev sunucular için değil, sınırlı belleğe sahip cihazlar için de büyük önem taşıyor. Enerji verimliliği sağlayan bu yöntem sayesinde, akıllı ev cihazları ve giyilebilir teknolojilerde çok daha gelişmiş yapay zeka modellerinin çalıştırılması mümkün hale gelecek. Yöntem ayrıca, aynı sunucu kapasitesiyle daha fazla kullanıcı sorgusuna yanıt verilmesinin de önünü açıyor.