Avrupa Birliği Yapay Zeka Kanunu çalışmalarında sona gelindi
PARA YAPAY ZEKA/ ŞULE GÜNER Yapay zekânız risk kategorisinde mi? Kodu yazan mı, kodu bir amaç için geliştiren mi, yoksa son kullanıcıya ulaştıran mı, riskten sorumlu? Bu soruları özellikle de 2018'de kabul edilen Avrupa'nın KVVK'sı GDPR'dan sonra daha çok soruyoruz. Geldiğimiz noktada, Türkiye'nin -olağanüstü bir durum olmadığı sürece- takip edeceği Avrupa Birliği'nin yapay zeka ekolünü iyice anlamamız gerekiyor.
Zira AB Yapay Zeka Kanunu çalışmalarında sona gelindi. Avrupa Parlamentosu Üyesi ve kanunun Eşraportörü Dragos Tudorache, temel noktaları röportajlar aracılığıyla kamuoyuyla paylaşıyor.
Öncelikle AB, bu kanunu hazırlarken yatay, yani sektör dikeyinde değil kabul edilemez, yüksek risk, orta risk ve düşük risk olarak her sektör ve alanı kapsayan bir bakış açısıyla olaya yaklaşıyor. Yaklaşımın merkezinde "insan için yapay zeka" (#HumanCentricAI- Japon ekolü) var. Yani, birey var.
AB kanun taslağında, "kabul edilemez" şöyle tanımlanıyor: Yapay zekanın kamusal alanda ideolojik olarak bireyin çıkarı aleyhine kullanılmasına izin yok. Çin'deki "sosyal kredi skorlaması" uygulaması gibi… Diğer yandan ironik bir şekilde, Çin'in ulusal güvenlik ve yatırım anlamında yapay zekaya en çok yatırım yapan ülke olduğunu ve bilimsel makale, patent, araştırma kriterlerinde önde veya ABD ile kafa kafaya yarışta olduğunu hatırlatalım. (McKinsey Haziran 2022: Çin yapay zeka ile GSMH'ya yıllık 600 milyar dolar katmayı planlıyor.)
Diğer riskler, kamusal alanda bireyin çıkarlarına zarar vermesi derecesine göre derecelendirilmiş. Yine Tudorache, AB içinde tahmini yapay zekaların yüzde 80-90 kadarının düşük risk veya "regulation free/regülasyondan bağımsız" kategorisinde çalışmaya devam edeceğini söylüyor. Bu yaklaşım, kanunun merkezini oluşturuyor. Bu yaklaşımla birlikte AB, ABD'den gelen "Siz regülasyon yapmayı iyi biliyorsunuz ama inovasyonun önünü kapatıyorsunuz" eleştirilerini de sonlandırmak istiyor. AB Komisyonu'nun, yani Avrupalı liderlerin de isteği bu yönde.
AÇIK KAYNAK KULLANANLAR İÇİN ENGEL Mİ?
İkinci önemli konuysa, bu kanunun nasıl uygulanacağı… Yani 27 üye ülke, bir kanunu farklı yorumlarla mı uygulayacak? Tudorache, bunun yerine "merkezi" bir kanun uygulayıcı sistem geliştirilmesi gerektiğini söylüyor.
Amaç şu; ister teknoloji devi olun, ister yeni bir start-up, sizin için oluşturulan sandbox'lar yani koruma alanlarında, en basit anlatımıyla "Bir sorayım regülatöre benim yolumda nasıl riskler var?" sorusunu soracağımız mekanizmaların, eğitilmiş kişilerin olması gerekiyor.
Pek çoğunuzun, "İş bireyin çıkarına dokunuyorsa suçlu kim?" sorusunun cevabını aradığını biliyorum. Tudorache'un cevabı şu: Ortadaki, yani kodu bir amaç için geliştiren.
Benim görüştüğüm ABD'deki bazı yetkililer ve okumalarıma göre; think-tank The Brookings Institution, bu durumun açık kaynak geliştiriciler için sorun olacağını ve genel yapay zekanın AB'den çıkması veya katkı yapmasının zorlaşacağını, yapay zekada bu alanda en büyük ilerleme olarak kabul edilen GPT-3 gibi doğal dil geliştirme uygulamalarınınsa kısıtlanacağı yorumlarını yapıyor.
Bu durumda AB'li öğrenci ve akademik araştırmacıların genel yapay zeka çalışmaları bir yerde tıkanacak mı?
Uluslararası temaslarımdan aldığım başka bir yorumsa; kendilerini yasal olarak güvende hissetmek isteyecek tüm AB kurum/şirketlerinin risk yönetimi, veri yönetişimi, teknik belgeleme ve şeffaflık konusunda AB'nin hazırlayacağı "rehberler" üzerinde çalışmaları gerektiği, oysa bunu her ölçekte firmanın yapma olanaklarının olmadığı veya olmayacağı yönünde.
Yani organizasyonel sıkıntılar baş gösterecek. Bu kanun geçecekse, bu önemli konuları bilmemiz gerekiyor.