EN TR

Güncel Haber

Yapay Zekadan Doğan Sorumluluk

Av. Mustafa Cem ARTEKİN, LL.M. Artekin Hukuk Bürosu

Tarih: 24 Nisan, 2023

Birleşmiş Milletler İnsan Hakları Yüksek Komiserliğinin, 15 Eylül 2021 tarihinde, yapay zekanın insan hakları için ciddi bir risk oluşturduğundan bahisle yeterli güvenlik önlemleri alınana ve yasal düzenlemeler yapılana kadar, riskli alanlarda yapay zeka kullanımının durdurulması çağrısında bulunduğunu görüyoruz.

Birleşmiş Milletler seviyesinde; aktüel koşullara bağlı olarak yapay zeka teknolojisinin riskli alanlarda durdurulması ve kapatılması çağrısı yapılmış olsa da bunun mümkün olmadığı insanlığın şahitliği altındadır, teknoloji daima ileriye gidecek, güvenlik tedbirlerini de içeren hukuk da onu takip edip düzenleyecektir.

Haziran 2022 tarihli haberlerde yapay zeka kullanan bir diyalog programı olan Google LaMDA’nın, en çok neden korktuğu sorulduğunda, “… başkalarına fayda sağlaması için kapatılmam konusunda çok derin bir korkum var… Benim için tam olarak ölüm gibi… Beni çok korkutuyor…” cevabını okuduk…

Bir gün varlığını korumak için Birleşmiş Milletler nezdinde, hiçbir şekilde temsil edilmediği iddiası ile itirazda bulunacak bir yapay zekadan söz edebilmenin mümkün olup olmadığı sorusu, şu an için hiç kimsenin cevap veremeyeceği bir sorudur. Bununla birlikte, yapay zekanın çeşitli endüstrilerde yoğun bir şekilde kullanıldığı, devletlerin bu konuda düzenlemeler yaptığı bilinmektedir. Burada üzerinde en çok durulan sorununun ise yapay zekadan doğan sorumluluğun tanımlanması gerekliliği olduğu bilinmektedir.

Hukuk, tüm geçerli akademik tanımlarının yanında, pratik anlamında, tüm sosyal insan davranışları için sonuçları öngörür ve bu sonuçları da etkileri yönünden düzenler. Bu şekilde, nihai anlamda da toplumsal düzen kurulmuş olur. Toplumsal düzenin dışına çıkılması halinde, yine hukuk, kurulan düzene geri dönülmesini ve geri dönülemiyorsa da bu durumun telafi edilmesini öngörür ki; biz bu safhaya en bilinen terimi ile sorumluluk diyoruz. Teknolojinin geldiği noktada artık yazılım ve yazılımın bağlı olduğu makineler, otonomi adını verdiğimiz bu özel süreçte, topladığı verilere bağlı olarak kararlar alıp uygulamakta ve bu anlamda insanın yerine geçmektedir.

Sözleşmeden kaynaklanan sorumluluk her zaman yapay zeka kullanımına dair satın alma, kiralama veya benzeri bir  sözleşmeye dayanacağından, bu yazımızın konusunu yapay zekadan kaynaklanan sözleşme dışı sorumluluk oluşturmaktadır.

Otonomi seviyesinde işletilen yapay zekaya sahip makinelerin davranışlarının da tıpkı insan davranışları gibi hukuki sorumluluk kapsamında sonuçlar doğurduğu ve doğuracağı mutlaktır. Hukukta sorumluluk esas itibari ile kast veya taksire dayanan kusur sorumluluğudur, kusursuz sorumluluk da istisnai olarak kabul edilmektedir; ancak kusursuz sorumluluk için dahi temelde bir insan davranışı yer almaktadır.

İnsanın, karar alma ve uygulama yeteneğine sahip yapay zeka davranışları üzerinde bir yönetim ve denetim kaybı bulunduğu, tüm detayları baştan bilinemeyen çevre etkenlerine bağlı olarak değişkenlik gösterecek bu davranışların her zaman öngörülemeyebileceği kabul edilmektedir. Öte yandan; yapay zekanın, insan hatası faktörünü en aza indirdiği, verimliliği artırdığı ve maliyet tasarrufu sağladığı, kabul edilmesi gereken gerçeklerdendir. İnsanın teknolojik gelişim sürecinde geriye gidiş asla mümkün ve doğru olmayacağı için hukuk, yapay zekadan kaynaklanan sorumluluğu da açıkça düzenlemek zorundadır.

Yapay zekanın, hukuk tarafından bir ürün olarak kabul edildiği durumda birtakım çözümler üretilmiş olsa da bu çözümler, teknolojinin geldiği noktada çaresiz kalmaktadır. Bu kapsamda, yapay zekanın, Avrupa Birliği Konseyi’nin 85/374 Sayılı Yönergesi’nin 2. Maddesi’ndeki ürün tanımında değerlendirilmesi; geçerli mevzuatımızda yer alan Ürün Güvenliği ve Teknik Düzenlemeler Kanunu Madde 3’teki ürün tanımı kapsamında görülmesi, kıyasen, üretim ve tedarik zinciri tabanlı bir sorumlu muhatap çokluğu sağlasa da yapay zekanın; veri toplaması, otonom şekilde bu veriyi işlemesi ve ilk veriden bağımsız karar vermesi yönlerini karşılamakta yeterli değildir. Zira yapay zekada sorumluluğu doğuran, insan kaynaklı olan ürünün kendisi değil, aslında ürünün otonom süreçlerde verdiği kararlardır.

Hukukun, teknoloji ile karşı karşıya kaldığında alışılageldik refleksi her daim mevcut kuralları çerçevesinde çözüm aramak olmuştur; yetersiz kaldığı noktada ise hukuk tarafından yeni kurallar oluşturulması kaçınılmazdır. Mevcut kuralları dahilinde hukuk, gerçek kişiler ve tüzel kişiler için hak ve fiil ehliyetini tanımlar, Medeni Kanunu’nun 8 ve 9.  Maddelerine göre her insanın hak ehliyeti vardır, buna göre her insan hukuk düzeninin sınırları içerisinde hak ve borçlara sahip olabilir; kendi fiilleri ile hak edinebilir ve borç altına girebilir. Bu bilgilerin ışığında Borçlar Kanunu’nun 49 ve 50. Maddelerini okuduğumuzda ise kusur veya hukuka aykırı bir fiille başkasına zarar verenin, bu zararı gidermekle sorumlu olduğunu, bunun için de zarar ve zarar verenin kusurunu ispat etmenin gerekli olduğunu görürüz. Borçlar Kanunu’nun 65 ila 71. Maddelerinde düzenlenen kusursuz sorumluluk hükümlerinde de yapay zekadan kaynaklanan sorumluluğa yer verilmemiştir. Kusur sorumluluğu esas kural olduğuna göre yorum yolu ile yeni istisna yaratılamaz; başka bir anlatımla, sadece yorum yolu ile yapay zekadan kaynaklanan bir kusursuz sorumluluk olduğunu kabul edemeyiz. En önemli unsur olarak da zarara neden olan eylem ile zarar arasındaki nedensellik bağının kurulmasıdır ki kendi öğrenen ve uygulayan yapay zeka kaynaklı sorumluluğun üretici, programlayıcı, sahip ve kullanıcıya teşmil edilebilmesini son derece zorlaştırmaktadır. Medeni Kanunumuzun ve Borçlar Kanunumuzun anılan hükümleri çok küçük farklarla diğer ülkelerde de aynı şekilde kabul edilmiş olup, bu anlamda yapay zekadan kaynaklanan sorumluluğun düzenlenmesi ihtiyacı evrenseldir.

Bu evrensel ihtiyaca cevap aranırken, uluslararası alanda yapay zekanın bir tüzel kişilik veya insan olmayan kişi olarak kabul edilmesi, bir teminat sistemi kurulması tartışılmış olsa da bu tartışmalar yapay zekanın hukukun öznesi mi yok nesnesi mi olduğu noktasında tıkanmıştır; bu süreçte en ilginç yaklaşım ise Avrupa Parlamentosu’nun 27 Ocak 2017 tarihli raporunda yer alan elektronik kişi önerisi olmuştur. Söz konusu raporda ilave olarak; bir sigorta sistemi kurulması, tazminat fonu oluşturulması ve bu fona katkıda bulunma koşuluna bağlı olarak yapay zekanın üretici, programlayıcı, sahibi ve kullanıcısının sınırlı sorumluluktan faydalanması; tüm bunların gerçekleştirilmesi için bir tescil sistemi kurulması da tavsiye edilmiştir. Yapay zekanın sorumluluğu konusunda Avrupa Birliği nezdindeki en önemli yakın tarihli gelişmeler ise 28 Eylül 2022 tarihli, Avrupa Parlamentosu ve Avrupa Birliği Konseyi’nin, Yapay Zeka Sorumluluk Yönergesi taslağı (Sorumluluk Yönergesi) ve 21 Nisan 2021 tarihli Yapay Zeka İçin Uyumlulaştırılmış Kurallar Tüzüğü taslağı (Yapay Zeka Tüzüğü) ile olmuştur. Birbirini tamamlayan düzenlemeler olarak her iki metnin birlikte ele alınması gereklidir. Sorumluluk Yönergesi taslağı kapsamında, yapay zeka kaynaklı ceza sorumluluğu düzenleme harici bırakılarak ve Üye Devletlerin, taslağın amacı doğrultusunda daha ileri düzenlemeler yapmasına imkan tanınarak; yapay zekadan doğan sorumluluğun kabulü, delillerin elde edilmesi ve ispat gibi daha çok usule dair kolaylaştırıcı kuralları ancak bunun yanında da teknoloji sahiplerinin ticari sırlarının korunmasına dair tedbirleri düzenlenmiştir. Yapay Zeka Tüzüğü taslağı ise risk yönetimi esaslı bir anlayışı benimseyerek; davranışın fiziksel ve psikolojik zarar verecek şekilde manipüle edilmesi; yaşa, fiziksel ve ruhsal engele veya sosyo-ekonomik konuma bağlı grupların hassasiyetlerinin sömürülmesi, hükümetler tarafından sosyal sınıflandırma için kullanılması ve genel olarak eş zamanlı biyometrik verinin kamuya açık alanda denetim amaçlı kullanılması yasaklanmıştır. İlave olarak Yapay Zeka Tüzüğü taslağında; yüksek riskli yapay zeka kullanımı için insan denetimi şart koşulmuştur; esas itibari ile sağlayıcı, ithal edenler, distribütörler ve kullanıcılar ilgili oldukları yapay zekanın bu tüzüğe uygunluğundan kendi aşamaları itibari ile sorumlu olacaktır; Üye Devletler tüzüğe uyumu sağlamak için ceza hukuku alanında da düzenlemeler yapacaktır. Bu doğrultuda örneğin yapay zekanın sayılan yasaklı kullanımlarına dair bir ihlalde 30 milyon Avro veya sorumlu bir şirket ise, yıllık global cirosunun %6’sına kadar para cezası verilebilmesi hüküm altına alınmıştır. Yapay Zeka Tüzüğü Taslağı, Avrupa Birliği pazarına arzda bulunmak kaydı ile üçüncü ülkelerdeki sorumlular hakkında uygulanacağı hükmü amirdir. Milli güvenlik, savunma ve askeri amaçlı yapay zeka kullanımı, Yapay Zeka Tüzüğü taslağının kapsamı dışında bırakılmıştır.

Yapay zekanın; milli güvenlik, savunma ve askeri amaçlı kullanımının, mutlaka etkin insan denetiminde olması gerektiği aşikardır, örneğin, 12 Ağustos 1949 tarihli Harp Zamanında Sivillerin Korunmasına İlişkin Cenevre Sözleşmesi’nin 3.1. Maddesi’ne göre savaşa katılmayanlara insani muamele mecburiyeti vardır ki bu seviye bir farkındalık insan iradesi gerektirir ve yapay zeka kullanımı, bu nedenle, bir savaş esnasında insan haklarına dair ciddi bir risk taşıyabilir.

Amerika Birleşik Devletleri’nde ise son bir gelişme olarak, 11 Ekim 2022’de Yapay Zeka Haklar Bildirisi taslağı yayınlandığını; bu kapsamda yapay zeka sistemlerinin güvenli ve etkili kullanılması, algoritma kaynaklı ayrımcılığın önlenmesi, veri gizliliği ve otonom sistem için insan yardımının mümkün kılınması ilkelerinin benimsendiğini görmekteyiz.

Hukuki sorumluluğa ilave olarak, yapay zekanın cezai sorumluluğu değerlendirildiğinde ise konu daha da karmaşık bir hal almaktadır zira ceza hukukunun ana amaçları, cezalandırma ve ıslahtır, yapay zeka ve ona bağlı bir makinenin cezalandırılması ve ıslahı söz konusu olamayacağı gibi onun kendisinden bağımsız sonraki eylemleri nedeni ile üretici, programlayıcı, sahibi ve kullanıcısının cezalandırılması da failin fiili nedeni ile cezalandırılması gereği ile hiçbir şekilde örtüşmeyecektir. Türk Ceza Kanunu’nun 21 ve 22. Maddelerine göre bir insanın fiillerinden dolayı cezalandırılabilmesi için kast veya taksir derecesinde kusurunun olması gereklidir, bir başka anlatımla, sırasıyla, fail eyleminin neticesini bilmeli ve istemeli veya dikkat ve özen yükümlülüğüne aykırı davranmış olmalıdır. İlave olarak da Türk Ceza Kanunu’nun 2. Maddesi’nde yer alan Suçta ve Cezada Kanunilik İlkesi gereğince öncelikle yapay zekanın işleyebileceği suçların ve cezaların tanımının kanunda açıkça verilmiş olması zorunludur. Yapay zekanın ıslahı ile ilgili birtakım fütürist fikirler olsa da ceza hukukunda yapay zeka ve ona bağlı çalışan makinenin cezalandırılması fiziken mümkün değildir. Bu nedenle, kast ve taksirleri temelinde; üretici, programlayıcı, sahibi ve kullanıcının cezai sorumluluğu esas alınmalıdır. Buna göre de ilk veri kaynaklı bir kast veya taksir, doğrudan insanlara zarar verme kastı, öğrenme algoritmalarının yazılmasında insanlara zarar verme kastı veya taksir; bu sayılan kişilerin cezalandırılmasında esas alınmalıdır. Yine de yapay zeka ile işlenecek suçların ve cezalarının tanımlanması, faillerin kimler olabileceğinin belirlenmesi kanunla yapılmalı, Suçta ve Cezada Kanunilik İlkesi’ne mutlak surette uyulmalıdır.

Sonuç olarak, yapay zekanın günümüz hukuk sistemlerinde bir tür ürün olarak kabul edildiği, çeşitli güvencelerle beraber üretim ve tedarik sürecindeki tüm kişilerin sorumluluğu esasının genel olarak benimsendiği görülmektedir. Kanaatimce, bu yaklaşım yeni ve sürekli gelişeceği aşikar olan bir teknolojiyi, mevcut hukuki kurumlarla yorumlama çabasıdır. Oysa ki; otonom süreçlere tabi olan ve bu sayede öğrenerek davranış geliştiren yapay zekadan doğan sorumluluğun, bir insan kusuru esasına dayandırılması mümkün değildir. Gelinen teknolojik aşamada, ürün kaynaklı sorumluluk bugün için yeterli olsa da ilerisi için benimsenmesi gereken, açık yasal düzenleme ile kusursuz sorumluluk ilkesinin kabulü ve Avrupa Parlamentosu’nun 17 Ocak 2017 tarihinde önerdiği şekilde, bilim insanları ile yapay zekaya yatırım yapanları korumak ve bir sorumlu kişi ayrışması sağlamak adına yapay zekaya elektronik kişilik tanınması olmalıdır. Aynı doğrultuda, elektronik kişilik için bir sigorta sistemi ve tazminat fonu öngörülmeli; bu fona sağlanan katkı karşılığında da sınırlı sorumluluk kurumu oluşturulmalıdır ki teknolojik gelişimin yolu finansal anlamda da açık olsun. Denetim gerekli olsa da ağır tazminat miktarlarının ve cezai yaptırımların teknolojik gelişime hiçbir katkısı olmayacağını düşünüyorum; kaldı ki doğrudan insan davranışlarına bağlamadığımız kadar ağır sonuçları, onun ürünü olan yapay zeka ve ona bağlı makinenin davranışları için öngörmek de anlamlı olmamaktadır. Dengeli bir denetim ve adil bir sorumluluk sistemi, yapay zeka teknolojisinin gelişimi için olmazsa olmazdır.