Avrupa Birliği Yapay Zekâ Regülasyonu
Birkaç hafta önce bundleapp’ta yayınlanan ‘Yapay zekâya AB regülasyonu’* başlıklı makale özetini okuduğumda içimden ‘Nihayet duygularıma ve kaygılarıma tercüman olacak bir adım atıldı’ yorumunu yapmıştım. Muhtemelen öyle düşünen tek okur ben değildim. (*İng. Regulation: Düzenleme, ayarlama)
Evet ‘yapay zekâ’, insanı konfor bakımından umutlandırmak ile bilim kurgunun en uç sınırlarında kaygılandırmak arasında salınan çok keskin bir sarkaç.
Şimdi o ilk heyecanı atmış olarak ve biraz daha oturmuş bir dağarcıkla hem durumu hem de kaygılarımı(zı) gözden geçiriyorum.
İlk bakışta son derece eğlenceli gözüken yapay zekâ ile ilgili risk neydi ve bundleapp’ın da değindiği biçimiyle Avrupa Birliği ne yaptı, hangi kararları aldı?
Buna bir bakalım:
Risk şuydu:
Yapay zekâ veya daha spesifik olarak üretken yapay zekâ (Generative AI); 20’nci yüzyılın başlarından beri bilgisayarlarla ve özellikle son çeyrek yüzyılda internetle ilgili atılan adımların ‘şimdilik’ son aşaması gibi gözüküyor. Keza; yapay zekâ (kısaca YZ diyelim), Google’ın en özet biçimde sunduğu haliyle “Çalışanların kötüye kullanımı ve olası yanlışlıklardan ötürü üretken yapay zekânın meşru kullanımı bile büyük riskler taşımakta; modellerin alınan girdilere göre yanıtlar üretmesi ve yani yanlış veya kimi zaman kötü niyetli içerikler sağlayabilecek olması...“ gibi risklerden ötürü güvenlik bağlamında büyük bir tehdit potansiyeline sahip.
Bunun dışında; istihdam yönetimini tümüyle ele geçirme ve işsizlik oranındaki potansiyel artış ile otonom silah sistemleri veya halihazırda zaten var olan -İsrail ile Filistin ve Rusya ile Ukrayna arasında yaşanan çatışmalarda yer yer kullanıldığının uluslararası otoritelerce açıklandığı gibi- kötü niyetli saldırılarda kullanılan zararlı YZ örneklerinin çoğalması; söz gelimi çapı sadece iki inç olan bir dört pervaneli drone’un neredeyse bir bombardıman uçağı kadar ölümcül bir patlayıcı yükü taşıyabilmesi ve bu şekilde normal bir nakliye konteynerine bir milyon adet drone’un sığdırılabilmesi ile bunlar tam olarak özerk oldukları için, bu silahların işlerini yapmak için bir milyon insan denetçiye ihtiyacı bulunması vs. vs. haklı endişeler sıralamak mümkün...
Yine YZ teknolojilerinin yarınlarda bugünün de çok ilerisine geçmesiyle birçok mesleğin de durumdan etkilenebilecek hatta literatürden silinecek olması, ‘şimdilik’ öne çıkan tehditler arasında...
Bu noktada bir kesinlik durumunun olmaması da ayrı konu:
Hukuk ve Bilişim Dergisi’nde Murat Fevzi Kıraç imzasıyla 1 Ekim 2023’te yayınlanan ve internette bu adla arayıp mutlaka okumanızı önereceğim ‘Yapay Zekanın Regülasyonu’ başlıklı makalede bu tanım aşağıdaki şekliyle, bir alıntı olarak yer buluyor:
“Yapay zekâ kesin değildir; dinamiktir, tahmin edilemez ve öğrenme yeteneğine sahiptir. Yapay zekâ, verileri tüketerek ve ardından verilere dayalı olarak gözlemler ve sonuçlar çıkararak öğrenmektedir. Geleneksel sistemler kesin girdiler ve çıktılar gerektirirken; kesin olmayan işleve sahip yapay zekâ, buna ihtiyaç duymamaktadır. Aynı şekilde yapay zekâ, değişen koşullara yanıt olarak geliştiği için dinamik olarak kabul edilmektedir. Tahmin edilemez, çünkü insanlar için yeni olan çözümleri o belirleyebilmektedir.”
(Henry A. Kissinger, Eric Schmidt ve Daniel Huttenlocher. The Age of AI and Our Human Future, Little, Brown and Company, 2021, s.57.)
Sayın Kıraç‘ın makalesinde şu öngörüye de yer veriliyor:
“Yapay zekâ teknolojisinin toplum hayatına olumlu yöndeki katkısı yadsınamaz bir gerçektir. Ancak özellikle otonom silahlar, kitle imha silahları, siber güvenlik, dezenformasyon, özel hayatın gizliliği, önyargıların güçlendirilmesi, bireylerin alışık olmadığı yapay zekâ gerçekliğiyle etkileşimi gibi konular başta olmak üzere; bu teknolojinin toplum hayatını tehdit eden çeşitli yönlerinin de bulunduğunun gözden kaçırılmaması gerekmektedir. Ayrıca yapay zekânın; yaygınlık, görünmezlik ve bilinmezlikle vücut bulmuş gücü, özgür iradenin geleceği hakkında soru işaretleri uyandırabilecektir.”
Her ne kadar Bilkent Üniversitesi’nden Prof.Dr. Emrah Özensoy ‘YZ insanların işlerini ellerinden almayacak; ama YZ kullanmayı bilen ve onu kendi sektöründe kullanabilen çalışanlar, kullanamayanların işlerini ellerinden alabilirler’ deyip olayı insan hararetiyle biraz yumuşatsa da sonuçta YZ’nin güvenlik ve hukuk kadar istihdam gibi yaşamsal bir ekonomik saha üzerinde de çok etkili bir faktöre dönüşeceği muhakkak!
Güvenlikte veya ekonomide, medyada veya eğitimde, uluslararası ticarette veya eğlence sektöründe, mimaride veya genel anlamda sanatta bu bir olasılık değil, adeta akıbet...
İstisnasız her alanda; düşünün ki hayvancılıkta ve tarımda bile...
★★
Avrupa Birliği, şimdi yapay zekâ alanındaki riskleri öngörerek giriş niteliğinde şunları yapıyor:
AB, botlar (otomatik mesajlar oluşturmak, belirli fikirleri savunmak, kullanıcıların takipçisi gibi davranmak ve takipçi kazanmak için kullanılan sahte hesaplar) aracılığıyla yapılan ve gerçek bir kişinin girişimi mi yoksa bot mu olduğu belirsiz olan işlemlerden tutun da deepfake (genellikle yapay zekâ veya makine öğrenmesi tekniklerini kullanarak oluşturulan sahte veya manipüle edilmiş video veya ses kaydı) aracılığıyla oluşturulmuş ve orijinal izlenimi veren, gerçek olandan ayırt edilmesi son derece zor sahte görüntülere kadar farklı YZ kullanımlarını ‘endişe verici’ bulduğunu artık resmen beyan ediyor.
Yönetim erki AB Komisyonu da bu kaygıyı göz önünde bulundurarak 2021’de bir yandan Pandeminin oluşturduğu derin çatlağı gidermeye çalışırken bir yandan da bu güncel sorunu gündemine aldı.
‘Avrupa Birliği Komisyonu Yapay Zekâ Düzenlemesi (Regulation on Artificial Intelligence of the European Commission)’ özet olarak şu düzenlemeleri içeriyor:
YZ uygulamaları üç kategoriye ayrılıyor. Bunlar (a) yasaklı, (b) yüksek riskli ve (c) sınırlı riskli YZ sistemleri olarak tanımlanıyor. Özellikle ‘yüksek riskli’ YZ sistemlerinin sağlayıcıları, kullanıcıları, ithalatçıları, distribütörleri gibi taraflar için de ayrı yasal sorumluluklar ve yükümlülükler düzenleniyor.
Buna ek olarak; aynı düzenleme ile YZ sistemlerinin piyasa izlemelerine ve gözetimine ilişkin hususların da düzenlendiği görülüyor.
(a) Yasaklı YZ uygulamalarına ilişkin olarak:
Belli toplum kesimlerini davranışsal açıdan manipüle eden YZ sistemleri; örneğin çocukları tehlikeli davranışlara yönlendiren, hukukun eşit saydığı kişileri sosyo-ekonomik durumlarına veya kişisel özelliklerine göre ayrıştıran, yüz tanıma gibi gerçek zamanlı biyometrik tanımlama sistemleri, AB düzenlemesiyle birlikte ‘yasaklı’ kategorisine alınıyor.
(b) Yüksek riskli YZ uygulamalarına ilişkin olarak:
İnsanların biyometrik olarak tanımlanması sınıflandırılması, istihbarat gibi kritik alt yapıların yönetimi, çalışan (İK) yönetimleri, temel ve özel kamu hizmetlerine erişim, göç-iltica-sınır kontrol ve yönetimleri ile hukukun yorumlanmasına ve uygulanmasına ilişkin hususlarda kullanılan YZ sistemlerini ‘yüksek riskli’ bulan AB Parlamentosu, bu kaygısını yasal önlemlerle de temellendiriyor.
(c) Sınırlı riskli YZ uygulamalarına ilişkin olarak:
Bu çerçevede AB’nin temel vurgusu serbest piyasa ekonomisi bağlamında ‘zorunlu şeffaflık’ olarak açıklanıyor.
AB menşeili YZ uygulamalarının söz gelimi Türkiye gibi üçüncü ülkelerde doğabilecek sorunlarla ilgili de yükümlülük taşıyacak olması son derece önemli. Madalyonun diğer tarafında ise Türkiye gibi üçüncü ülkelerde üretilen YZ uygulamalarının AB sınırları içerisinde kullanımları sırasında doğabilecek tüm olumsuzluklardan üreticinin sorumlu tutulacak olması gerçeği var.
★★
Peki bütün bu önlemler riskleri küresel olarak ortadan kaldırmak için yeterli olacak mı? Ne kadar etkili olacak?..
‘Kim bilir? Belki evet, belki hayır; ama bence daha çok hayır!’ diyorum ve tarihe geçmiş iki büyük gafı -belki beni de bekleyen o trajikomik akıbeti- hatırlatarak finali size bırakıyorum:
1899 yılında bir adam ‘Artık yeni hiçbir şey yok. İcat edilebilecek her şey icat edildi’ dediğinde ne bilgisayarlar vardı ne de tarihin ve ekonominin seyrini değiştiren nükleer santraller ve büyük endüstri tesisleri... Asıl tuhaf olansa o gün, o sözü söyleyenin Amerikan Patent Dairesi Başkanı Charles Duell olmasıydı. Olası bütün icatların tescilinin emanet edildiği adam yani (?!)
Duell’dan 20 yıl kadar sonra, 1911 yılında ise bir başka adam ‘Uçaklar son derece ilginç oyuncaklar ama askerî açıdan beş para etmezler’ demişti. Bunu diyen adam 1. Dünya Savaşının Fransız komutanlarından, kendi çağında askeri strateji dehası olarak görülen Mareşal Ferdinand Foch idi. Fransızlar bir profesyonel olan Foch’un sözünü dinleyerek neredeyse altın değerinde bir çeyrek yüzyıl kaybettiler...
Şimdi; bizim de ‘amatörce’ zaman kaybetmememiz için genel anlamda bilişim, daha spesifik anlamda ise yapay zekâ konusunda ‘proaktif’ olmamız ve kendi sistematiğimizi oluşturmamız gerekiyor. Bu, apaçık bir zorunluluk durumudur!
★★
Son bir not:
Yukarıda makalesinden alıntılara yer verdiğim Sayın Murat Fevzi Kıraç, bir başka uzmanın, Avukat Murat Osman Kandır’ın Hukuk ve Bilişim Dergisi 9. sayısında yayınlanan ‘Yapay Zekâ ve Geleceğin Mahkemeleri’ isimli yazısını okumamızı öneriyor. Tavsiyesini aynen naklediyorum. Yapay zekâ odaklı hukuk yaklaşımlarını ve uygulamalarını bilmenin kime, ne zaman yarar sağlayacağı belli mi olur?