istanbul-ticaret-gazetesi
istanbul-ticaret-gazetesi

OpenAI, casusluğa karşı kalkan kurdu

OpenAI, rakip yapay zeka şirketlerinin fikri mülkiyetini hedef aldığı iddialarının ardından güvenlik protokollerini sertleştirdi. Ofis içi erişimden siber önlemlere kadar birçok alanda yeni uygulamalar devreye alındı.

Giriş: 08.07.2025 - 13:47
Güncelleme: 08.07.2025 - 13:47
OpenAI, casusluğa karşı kalkan kurdu

OpenAI, kurumsal casusluk endişelerine karşı operasyonlarını baştan aşağı yeniliyor. Financial Times’ın haberine göre, şirket Ocak ayında Çin merkezli DeepSeek’in kendi modellerine çok benzeyen bir AI sistemi yayınlaması sonrası, iç güvenlik önlemlerini sertleştirme kararı aldı.


DeepSeek’in OpenAI modellerini ‘damıtma’ (distillation) yoluyla kopyaladığı iddia edilirken, bu durum şirketin fikri mülkiyetini koruma refleksini tetikledi.


BİLGİ ÇADIRI POLİTİKASI

Yeni güvenlik uygulamaları kapsamında, ‘bilgi çadırı’ adı verilen politikalar hayata geçirildi. Buna göre, kritik projelerde yalnızca doğrudan görevli ekip üyeleri modele dair içeriklere erişebiliyor. Hatta bu bilgilerin ortak ofis alanlarında dahi paylaşımı kısıtlandı. Örneğin, ‘o1’ modeli geliştirilirken yalnızca yetkilendirilmiş çalışanlar projeye dair bilgi paylaşımında bulunabildi.


BİYOMETRİK ERİŞİM VE ÇEVRİMDIŞI KORUMA

OpenAI, artık ofis girişlerinde biyometrik (parmak izi) kontroller kullanıyor. Ayrıca, şirket içindeki tescilli sistemlerin çoğu artık çevrimdışı çalıştırılarak internetten izole hale getiriliyor. Her dış bağlantı talebi, özel onay mekanizmalarından geçmek zorunda.


SİBER GÜVENLİK GENİŞLETİLDİ

OpenAI, güvenlik operasyonlarını yalnızca fiziksel önlemlerle sınırlı tutmuyor. Şirketin veri merkezlerinde fiziksel güvenlik artırılırken, siber güvenlik ekibine yeni personel takviyeleri yapıldığı belirtiliyor. Bu adımlar, hem dış tehditlere hem de içeriden sızmalara karşı daha güçlü bir savunma hattı oluşturmayı amaçlıyor.


DIŞ TEHDİT Mİ, İÇ RİSK Mİ?

Alınan önlemler, yabancı AI firmalarının agresif rekabet hamlelerine karşı atılsa da, bazı yorumcular şirket içi disiplin problemlerine ve sık sık medyaya sızan bilgilerle ilgili sorunlara da dikkat çekiyor. Özellikle CEO Sam Altman’a ait içeriklerin dışarı sızması, OpenAI’nin kendi personeliyle ilgili kontrol mekanizmalarını da sorgulamasına neden olmuş olabilir.