istanbul-ticaret-gazetesi
istanbul-ticaret-gazetesi

Mahremiyet riski: Yapay zeka ile dertleşirken iki kere düşünün

Yapay zekanın artan popülaritesi, kullanıcıların en mahrem meselelerini paylaşmasına yol açıyor. Ancak uzmanlar, bu güvenin ciddi mahremiyet riskleri doğurabileceği konusunda uyarıyor.

Giriş: 29.07.2025 - 17:10
Güncelleme: 29.07.2025 - 17:12
Mahremiyet riski: Yapay zeka ile dertleşirken iki kere düşünün

Yapay zekaya olan ilgi arttıkça, kullanıcıların bu teknolojilere duyduğu güven de derinleşiyor. Günlük görevlerden sağlık tavsiyelerine, hatta duygusal destek arayışına kadar pek çok alanda yapay zeka araçlarına yönelen kullanıcılar, farkında olmadan mahremiyetlerini riske atabiliyor.


GİZLİLİK RİSKİ YÜKSEK

OpenAI CEO’su Sam Altman, bu konuda önemli bir uyarıda bulundu. Katıldığı bir programda yaptığı açıklamada, kullanıcıların ChatGPT gibi büyük dil modellerini, terapist veya yaşam koçu gibi kullandığını ve bu durumun ciddi riskler barındırdığını vurguladı. Altman, yapay zekaların, terapist veya doktorlarla yapılan görüşmelerde olduğu gibi herhangi bir yasal gizlilik güvencesi taşımadığını belirtti.


YASAL KORUMA YOK

Altman, "İnsanlar hayatlarındaki en özel meseleleri yapay zekaya anlatıyor. İlişki sorunları, hukuki problemler, psikolojik sıkıntılar... Ancak burada terapist-hasta gizliliği gibi bir durum söz konusu değil" ifadelerini kullandı. Yapay zekayla yapılan bu görüşmelerin, gerektiğinde hukuki süreçlerde delil olarak kullanılabileceğini de ekledi.


GENÇLER HEDEFTE

Özellikle genç kullanıcıların yapay zekaya duygusal bağ kurarak onu bir ‘güvenilir sırdaş’ gibi görmeye başladığına dikkat çeken Altman, bu eğilimin daha geniş bir sosyal sorun haline dönüşebileceğini belirtti. Altman, yasal düzenlemelerin bu gelişmeye ayak uydurmakta geciktiğini ve bu boşluğun kötüye kullanılabileceğini söyledi.

Mahremiyet riski: Yapay zeka ile dertleşirken iki kere düşünün


HIZLA GELEN RİSKLER

Altman’ın uyarısı, yapay zekanın insanlarla daha ‘duygusal’ iletişim kurabilme yeteneği kazandığı bir dönemde geldi. Ancak bu yetenek, geleneksel profesyonel destekle karıştırıldığında tehlikeli olabiliyor. ChatGPT veya benzeri modellerin destekleyici konuşmalar yapabilmesi, güven duygusunu artırıyor fakat bu, verilerin güvenliğini garanti etmiyor.


DÜZENLEME İHTİYACI

Uzmanlara göre, yapay zekanın kullanımı her geçen gün artarken, kişisel veri güvenliğini sağlayacak hukuki çerçevenin oluşturulması büyük önem taşıyor. Terapötik destek sunan uygulamaların, en azından belirli standartları sağlaması gerektiği, aksi halde mahremiyetin ciddi şekilde tehlikeye atılacağı dile getiriliyor.