Avrupa Birliği Yapay Zeka Tüzüğü, 1 Ağustos 2024 tarihi itibarıyla yürürlüğe girdi. Tüzük, yapay zeka sistemlerini çeşitli risk seviyelerine göre sınıflandırarak, bu sistemlerin düzenlenmesi ve denetlenmesi için kapsamlı yükümlülükler getiriyor.
Bu yükümlülükler, yapay zeka sistemlerinin güvenli, adil ve şeffaf bir şekilde kullanılmasını sağlamayı hedeflerken, bu sistemlerin insan haklarına ve temel özgürlüklere zarar vermemesi için denetim mekanizmaları oluşturuldu.
Risk seviyeleri minimum risk, sınırlı risk, yüksek risk ve kabul edilemez risk kategorilerine ayrıldı.
Avrupa Birliği Yapay Zeka Tüzüğü ayrıca, GPAI (General Purpose on Artificial Intelligence) modelini de dikkate alarak uluslararası işbirliği ve küresel standartlarla uyumu da teşvik ediyor.
GPAI, genel amaçlı bir yapay zeka modeline dayalı hem doğrudan kullanım hem de diğer yapay zeka sistemlerine entegrasyon için çeşitli amaçlara hizmet etme kapasitesine sahip bir yapay zeka sistemidir. Tüzük, yüksek riskli yapay zeka sağlayıcılarına olduğu gibi GPAI sağlayıcılarına da bazı yükümlülükler getiriyor.
Tüzüğün uygulanması, kuruluşlara tüzüğün hükümlerine uymaları için yeterli süre sağlamak amacıyla aşamalı olarak gerçekleştirilecek.
Bu kapsamda:
* 2 Şubat 2025 tarihinden itibaren üye devletler, kabul edilemez risk taşıyan yapay zeka sistemlerini aşamalı olarak kaldıracak.
* 2 Ağustos 2025 tarihinden itibaren GPAI için öngörülen tüm yükümlülükler uygulanacak.
* 2 Ağustos 2026 tarihinden itibaren Ek-3’te yer alan yüksek riskli yapay zeka sistemleri için öngörülen tüm yükümlülükler uygulanacak.
* 2 Ağustos 2027 tarihinden itibaren Ek-1’de yer alan yüksek riskli yapay zeka sistemleri için öngörülen tüm yükümlülükler uygulanacak.
KABUL EDİLEMEZ RİSK TAŞIYAN YAPAY ZEKA SİSTEMLERİ
Tüzükle birlikte kabul edilemez risk (unacceptable risk) taşıyan yapay zeka sistemleri yasaklandı.
YÜKSEK RİSK TAŞIYAN YAPAY ZEKA SİSTEMLERİ
Yüksek risk taşıyan yapay zeka sistemleri tüzüğün ana odak noktasıdır.
Tüzükle birlikte yasalaşan çoğu yükümlülük, yüksek riskli yapay zeka sistemlerinin sağlayıcıları-geliştiricileri üzerine yüklendi. Sağlayıcılar-geliştiriciler (providers-developers) genellikle sistemin yazılım ve donanımını geliştiren, performansını ve güvenliğini izleyen, kullanıcı eğitimlerini düzenleyen ve yasal uyumluluğu sağlayan kuruluşlar veya bireylerdir. Sağlayıcılar, genellikle yapay zeka sisteminin ticari üreticisi veya sunucusu olarak tanımlanabilirken, geliştiriciler sistemin teknik yönlerinden sorumlu olan mühendisler, programcılar ve araştırmacılardır.
AB’de veya üçüncü bir ülkede bulunmalarına bakılmaksızın AB’de yüksek riskli yapay zeka sistemlerini pazara sürmeyi veya kullanıma sokmayı hedefleyen sağlayıcılar-geliştiriciler, tüzük kapsamında sorumludur.
Ayrıca, yüksek riskli yapay zeka sistemlerinin çıktısını AB’de kullanan üçüncü ülke sağlayıcıları da sorumludur.
SINIRLI RİSK TAŞIYAN YAPAY ZEKA SİSTEMLERİ
Sınırlı risk (limited risk) taşıyan yapay zeka sistemleri, kullanımında bazı düzenlemeler gerektiren, ancak yüksek risk kategorisine girmeyen sistemlerdir. Bu tür sistemler, kullanıcıların dikkatini çekme ve uygun uyarıları sağlama gibi belirli şeffaflık (transparency) ve izleme gereksinimlerine tabi olabilirler. Tüzük içerisinde sınırlı risk içeren yapay zeka sistemleri hakkında şeffaflık sağlamak amacıyla son kullanıcıların yapay zeka ile etkileşimde olduklarında bilgilendirilmeleri gerektiği vurgulanıyor.
MİNİMUM RİSK TAŞIYAN YAPAY ZEKA SİSTEMLERİ
Yapay zeka destekli video oyunları ve spam filtreleri gibi minimum risk taşıyan yapay zeka sistemleri, kullanımı genellikle serbest bırakılan ve düzenlemelerin en az olduğu kategorideki sistemlerdir. Bu sistemler, belirli kısıtlamalar olmadan kullanılabilir, ancak yasal uyumluluk, şeffaflık ve güvenlik standartlarına uygunluk gibi temel yükümlülükler geçerlidir.
11 Eylül 2024 Çarşamba