Mobil teknolojideki köklü geçmişinin ötesine geçen Qualcomm, yapay zeka donanımlarına hakim şirketlere doğrudan meydan okuyor. Yarı iletken firması, mevcut yapay zeka patlamasının temelini oluşturan bilgi işlem altyapısına yönelik bugüne kadarki en iddialı hamlesini gerçekleştirerek, iki yeni yapay zeka hızlandırıcı çipiyle üst düzey veri merkezi pazarına gireceğini duyurdu. Şirket, yapay zeka dağıtımının çıkarım tarafı için tasarlanmış AI200 ve AI250 olmak üzere iki ürün piyasaya sürmeyi planlıyor. AI200'ün 2026'da, AI250'nin ise 2027'de ticari olarak satışa sunulması bekleniyor.
VERİ MERKEZİ HEDEFLERİ
Her iki çip de büyük ölçekli veri merkezleri için tam sıvı soğutmalı sunucu rafları olarak yapılandırılabilecek. Qualcomm, yapay zeka veri merkezi donanımını yıllık olarak güncellemeyi taahhüt ettiğini belirtti.
Mobil odaklı Snapdragon işlemcileri ve kablosuz bağlantı yongalarıyla tanınan Qualcomm'un yeni yapay zeka hızlandırıcı serisi, akıllı telefonlardaki düşük güç tüketimli makine öğrenimi görevleri için optimize edilmiş Hexagon sinirsel işlem birimlerinden teknoloji alıyor. Şirket yöneticileri, aynı tasarım verimliliklerinin Qualcomm'un raf ölçekli sistemlerini, GPU'ları şu anda bu alanda lider konumda olan Nvidia ve AMD'nin veri merkezi ürünleriyle maliyet açısından rekabetçi hale getirebileceğini ifade etti.
Qualcomm'un veri merkezi ve uç bilişim iş birimi genel müdürü Durga Malladi, yaptıkları bir açıklamada, veri merkezi seviyesine geçmeden önce kendilerini mobil ve uç bilişimde kanıtladıklarını belirtti. Malladi, mimarilerinin müşterilere komple raf sistemini satın alma veya çiplerini kendi tasarımlarıyla birleştirme olanağı sunduğunu ekledi.
RAKİPLERLE BENZER MİMARİ
Qualcomm'un yeni sistemlerinin donanım yapısı, Nvidia'nın HGX ve AMD'nin Instinct tabanlı platformlarına benziyor: tek bir işlem birimi olarak çalışan düzinelerce birbirine bağlı hızlandırıcıyı barındıran büyük raflar. Her raf, mevcut yüksek performanslı GPU kümeleriyle karşılaştırılabilir şekilde yaklaşık 160 kilovat güç tüketiyor. Şirket, watt başına dolar bazında üstün performans olarak adlandırdığı şeyi vurguladı.
Nvidia'nın hem eğitim hem de çıkarım konusunda uzmanlaşmış H100 GPU'larının aksine, Qualcomm yalnızca çıkarım iş yüklerini hedefliyor. Bu, önceden eğitilmiş modeller kullanarak metin oluşturmayı veya gerçek zamanlı işlem gerektiren etkileşimli uygulamaları desteklemeyi içeriyor. Malladi, bu görevlerin yapay zeka veri merkezi kullanımının giderek artan bir payını temsil ettiğini söyledi.
Şirket, fiyatlandırma veya bir rafın tutabileceği NPU (Sinirsel İşlem Birimi) sayısını açıklamayı reddetti ancak yapay zeka kartlarının 768 gigabayt belleği desteklediğini doğruladı; bu miktar, Nvidia ve AMD'nin benzer ürünlerinin kapasitesini aşıyor.

İLK BÜYÜK MÜŞTERİ
Qualcomm'un pazara girişi, yapay zeka yarı iletken ekosistemini genişletme yönündeki çabaların yoğunlaştığının ve Nvidia'nın sektördeki hakimiyetinin zayıflamasının sinyalini veriyor. Şirketin halihazırda ilk büyük müşterisi Suudi Arabistan merkezli Humain oldu. Humain, Qualcomm'un AI200 ve AI250 sistemlerini 2026'dan itibaren devreye alacak. Bu ortaklığın, tam kapasiteyle çalışmaya başladığında 200 megawatt'a eşdeğer veri merkezi kapasitesi sağlayabileceği tahmin ediliyor.
Qualcomm ayrıca, kendi raflarını tasarlayıp monte etmeyi tercih eden hiper ölçekli bulut operatörleri için sistemlerinin ayrı bileşenler olarak sunulacağını belirtti. Şirket yöneticileri, amaçlarının müşterilere seçenekler sunmak (tüm rafı almak veya karıştırıp eşleştirmek) olduğunu söyledi.