Yapay zeka (YZ), hayatımızın her alanına hızla entegre olmaya devam ediyor. Bu bütünleşme ve hayatımızın vazgeçilmez bir parçacı oluş, bir yandan büyük kolaylıklar ve yenilikler getirirken, diğer yandan da güvenlik ve etik konularında ciddi endişeler yaratıyor. İşte tam bu noktada Avrupa Birliği nihayet Yapay Zeka Yasası ile ilk defa ciddi şekilde oyuna dahil oldu, duruşunu belirtti ve çerçeveyi çizmeyi denedi. Denedi diyorum zira konu YZ olunca sınırlar çok geniş ve dokunduğu alan çok fazla. Peki, bu yasa neler içeriyor ve sınırları şimdilik nerelerden geçiyor?
Temel Haklar ve Özgürlükler Ön Planda
İlk bakışta Avrupa Birliği’nin Yapay Zeka Yasası, teknolojinin getirdiği fırsatları en iyi şekilde değerlendirmeyi hedefleyen fayda odaklı bir yasa gibi görünüyor. Bununla birlikte, vatandaşların haklarını ve temel özgürlüklerini korumak da bu düzenlemenin kalbinde yer alıyor. Yasanın amacı, yüksek riskli YZ uygulamalarını kontrol altına alarak, bu teknolojilerin yanlış kullanımlarına karşı bir kalkan oluşturmak. ‘’Yüksek riskli’’ kelimesi burada oldukça kritik yani yasa çalışmaları risk kategorilerine ayırarak bir yaklaşım sergiliyor. Dolayısıyla ilk tartışma ‘’risk’’ ve ‘’risk sınırlarının değerlendirilmesi’’ noktasında (!) başlıyor.
Güvenlik Politikaları Açısından Yaptırımlar
Yeni düzenlemeyle, biyometrik tanımlama sistemlerinin kolluk kuvvetleri tarafından kullanımı gibi hassas konulara ciddi sınırlamalar getiriliyor. Bu sistemlerin özellikle “gerçek zamanlı” kullanımı, yalnızca çok özel durumlarda(!), önceden alınmış izinler doğrultusunda mümkün olabilecek. Terör saldırılarının önlenmesi veya kayıp bir kişinin aranması gibi acil durumlar dışında bu tür uygulamalar, vatandaşların mahremiyetini ve haklarını ihlal etmemek adına sıkı bir denetime tabi olacak. (Burada aklına ‘’Minority report’’ dizisi gelen sadece ben miyim acaba?)
Yapay zekanın potansiyel riskleri göz önünde bulundurularak, özellikle yüksek riskli sistemlere yönelik açık yükümlülükler getiriliyor. Sağlık hizmetlerinden bankacılığa, eğitimden istihdama kadar birçok kritik alanda kullanılan YZ sistemlerinin şeffaf, doğru ve insan denetimine açık olması gerekecek. Bu, kullanıcıların yapay zeka sistemlerine duydukları güveni artırmayı hedefliyor. Ayrıca, vatandaşlar bu sistemlerle ilgili şikayette bulunma ve haklarını etkileyen kararlara ilişkin anlamlı açıklamalar alma hakkına sahip olacak.
Sosyal Puan Uygulaması Şimdilik Avrupa’ya Uzak
Yapay zeka ile ilgili tartışmalarda en çok dikkat çeken konulardan biri de sosyal puanlama ve manipülasyon. Yasanın bu noktadaki tavrı son derece net: İnsanların güvenlik açıklarını istismar eden, duygularını manipüle eden ya da sosyal puanlama sistemleri gibi etik olmayan uygulamalar kesinlikle yasaklanacak. Bu adım, bireylerin yalnızca birer veri noktası olarak değil, hakları olan insanlar olarak görülmesini sağlayacak. (Bir başka yazımızda Çin’in devreye aldığı ‘’Sosyal skor’’ uygulamasını ayrıca işlemek elzem oldu.)
Start-up ve Orta Boy İşletmelerin de desteklenmesi amaçlanıyor.
Bu yasa aynı zamanda, inovasyonu desteklemeyi de amaçlıyor. Yapay zeka alanında küçük ve orta ölçekli işletmelerin (KOBİ) daha aktif rol alabilmesi için düzenleyici kum havuzları (regulatory sandbox) ve gerçek dünya testleri (real-word texting) gibi destekleyici önlemler getirilecek. (Bu ortamda, şirketler ve girişimciler, normalde yasal ve düzenleyici sınırlamalara tabi olacak ürün ve hizmetlerini belirli bir süre boyunca gerçek dünya koşullarında test edebilirler. Düzenleyici otoriteler bu süreçte, inovasyonun potansiyel faydalarını göz önünde bulundurarak, belirli esneklikler tanır.) Böylece, bu işletmelerin yeni teknolojiler geliştirme sürecinde karşılaştıkları engellerin aşılması hedefleniyor.
Elbette Bu Yasanın Cezai Yaptırımları da Olacak
Yine yasaya göre ‘’Genel amaçlı yapay zeka sistemleri’’ (GPAI), yüksek şeffaflık gereksinimlerine tabi tutulacak. Özellikle deepfake gibi manipülatif içeriklerin açıkça etiketlenmesi gerekecek. AB’nin bu konudaki hassasiyeti, toplumun yanlış bilgilendirilmesini ve yanıltılmasını önlemeyi amaçlıyor. Ayrıca, bu modellerin eğitim süreçlerinde kullanılan verilerin açıkça belirtilmesi zorunlu olacak. Bu, hem etik değerlerin korunmasını hem de sistemlerin güvenilirliğinin artırılmasını sağlayacak. Bildiğiniz gibi geçtiğimiz yıllarda yapay zeka ve makine öğrenmesi alanında etik tartışmalar sıklıkla konu olmuş ve kasıtlı olarak yanlış bilgilerin ya da ön yargıların da sistemlere öğretildiği gündeme gelmişti.
AB’nin bu konuda attığı adım, insani değerlerin savunucusu olarak bilinen AB ruhunu yansıtsa da takip edilemez bir hızla gelişen ve büyüyen teknoloji dünyasına da bazı sinyaller veriyor. Yasa koyucuların teknolojinin hızına yetişemediği bir dönemde büyük girişimler kapalı kapılar arkasında önemli atılımlar yaparak kısmen yakıp yıkma pahasına bir DEVRİM gerçekleştirdiler ve YZ belirli bir seviyeye geldi. Aynı firmalar, AB yasası ve benzer yasalar yürürlüğe girmeden önce son bir hızla ürün ve teknoloji geliştirme çabalarını da ivmelendirmiş durumda. (Yangından mal kaçırma havasında yeni yasa öncesi ardı ardına bir çok yeni ürün ve uygulamayla tanışacağımız kesin) Bir yanda Firmaların özgürlük ve karlılık istediği, diğer yanda kolluk kuvvetlerinin herkesi kontrol edebilme güdüsü ve bir başka yanda da bireylerin özgürlük alanlarının tehlike altında olduğu korkusu gerçeği varken gelecek dönemde bu tablodan daha nice tartışmalar çıkacak.
Yani…
Avrupa Birliği Yapay Zeka Yasası, teknolojik gelişmeleri teşvik ederken, aynı zamanda vatandaşların güvenliğini ve haklarını korumayı hedefleyen kapsamlı bir düzenleme olarak karşımıza çıkıyor. Bu yasa, Avrupa’nın dijital geleceğini şekillendirirken, etik ve hukuk temelinde bir yapı oluşturmayı amaçlıyor. Avrupa’nın bu alanda liderlik rolünü sürdürme isteği açık; ancak bu süreçte toplumun tüm kesimlerinin katkısına da ihtiyaç var. Bu alandaki Asıl büyük aktörler olan ABD ve Çin cephelerindeki gelişmeler ve düzenlemeler ise hepimizin ortak geleceğinde asıl belirleyeciler olacak.
Bakalım Avrupa ne kadar direnebilecek…