Arama
Son Dakika Tokat Gündem Yapay Zeka Savaş Hukuku Sınavında: Gözetim ve Otonom Silah Tartışması Kızıştı!

Yapay Zeka Savaş Hukuku Sınavında: Gözetim ve Otonom Silah Tartışması Kızıştı!

Haber Merkezi
Haber Merkezi Editör
Yayınlanma
Güncellenme
Yapay Zeka Savaş Hukuku Sınavında: Gözetim ve Otonom Silah Tartışması Kızıştı!

Savaş hukukunun yapay zeka ile imtihanı sürerken, ABD'de yapay zeka şirketleri ile Savunma Bakanlığı arasındaki gerilim tırmanıyor. Askeri yapay zeka kullanımının sınırları, sözleşme güvenceleri ve kritik kavramların tanımı tartışmaları alevlenirken, konunun uzmanları hukuki belirsizliklere dikkat çekiyor. Pentagon'un açıklamaları ile sözleşme metni arasındaki farklar, uluslararası hukukun geleceği için de önemli soruları gündeme getiriyor.

Yapay Zeka ve Pentagon: Alevlenen Gerilim

Son haftalarda ABD kamuoyunda, önde gelen yapay zeka şirketleri ile Savunma Bakanlığı (Pentagon) arasında yaşanan gerilim, yapay zeka teknolojilerinin savaş hukukundaki yeri ve kullanım alanlarına dair ciddi tartışmaları beraberinde getirdi. Tartışmaların merkezinde, askeri yapay zeka kullanımının sınırları, sözleşme güvenceleri ve özellikle "kitlesel gözetim" ile "tam otonom silah" gibi kritik kavramların nasıl tanımlanacağı yer alıyor. Bu süreç, özellikle Anthropic Üst Yöneticisi (CEO) Dario Amodei'nin, şirketlerinin Pentagon'un talep ettiği sözleşme dilini "iyi niyetle kabul edemeyeceğini" açıklamasıyla daha da alevlendi. Anthropic, Pentagon'dan gelen yeni sözleşme metninin, geliştirdikleri Claude modelinin Amerikalılara yönelik kitlesel gözetim ya da tamamen otonom silah sistemlerinde kullanılmasını engelleme konusunda "kayda değer bir ilerleme sağlamadığını" savundu. Bu durum, teknolojinin potansiyel kötüye kullanımı endişelerini ve bu tür sistemlerin kontrolünde hukuki boşluklar olabileceği ihtimalini ön plana çıkardı.

Pentagon Cephesinden Açıklamalar ve Gelişmeler

Pentagon cephesi ise Anthropic'in iddialarına karşı çıkarak, ordunun Amerikalılara karşı kitlesel gözetim yapma gibi bir niyeti olmadığını ve insan müdahalesi olmaksızın çalışan otonom silah sistemleri geliştirmek istemediğini belirtti. Savunma Bakanlığı Sözcüsü Sean Parnell, bu konudaki endişeleri gidermeye yönelik açıklamalarda bulundu. Ancak, bu açıklamaların sözleşme metnindeki belirsizlikleri ne kadar giderebildiği sorusu yanıtsız kaldı. Öte yandan, tartışma, OpenAI CEO'su Sam Altman'ın Savunma Bakanlığı ile bir anlaşmaya vardıklarını duyurmasıyla yeni bir boyut kazandı. Altman, modellerinin "gizli ağ" üzerinde konuşlandırılacağını, sözleşmede "kitlesel gözetim yasağı" ve "insan sorumluluğu" ilkelerinin yer aldığını ve teknik güvenlik önlemleri uygulanacağını açıkladı. Ancak konuya yakın hukukçular ve uzmanlar, sözleşmeye ilke yazılmasının fiili kullanım açısından yeterli bir garanti oluşturmayabileceğine işaret ediyor. Anthropic'in Pentagon sözleşmesini kabul etmemesinin temelinde de bu potansiyel hukuki belirsizlik ve fiili uygulama farkı yatıyor.

Hukuki Belirsizlikler ve Uluslararası Boyut

Bu karmaşık tartışmaların uluslararası hukuk ve savaş hukuku boyutunu değerlendiren Milli Savunma Üniversitesi Öğretim Üyesi ve Uluslararası Hukuk Uzmanı Dr. Mustafa Tuncer, meseleye hem ABD iç hukuku hem de uluslararası insancıl hukuk perspektifinden yaklaştı. Tuncer, Pentagon'un beyanları ile sözleşme metni arasındaki gerilimin, teknik olduğu kadar hukuki belirsizliklerden kaynaklandığını belirtti. Tuncer, "ABD Savunma Bakanlığı'nın konuya ilişkin beyanı, sözleşmenin uygulanmasına ilişkin teknik ve hukuki alanda sorunlar doğurabilir. Zira kitlesel gözetim kavramının ABD iç hukukunda farklı bağlamlarda farklı şekillerde tanımlanması, bu konuda beyanın içerdiği taahhüdü de belirsiz hale getirmektedir" dedi. Ayrıca, tam otonom silah tanımının da ABD'nin kendi ulusal metinlerinden kaynaklanması ve bu tanımın gelecekte değişmesi halinde mevcut beyanların kapsamı ve etkisine dair başka bir belirsizliğe zemin hazırladığını ekledi. Sözleşme dışı bir beyanın, gelecekte bir sorun çıktığında sorumluluk rejimini tek başına değiştirmemesinin de Anthropic'in bir diğer endişesi olabileceğini değerlendirdi.

ABD'nin Yapay Zeka Yaklaşımı ve Mevzuat Çerçevesi

ABD'nin federal kurumların yapay zeka kullanımına ilişkin yaklaşımının ne kadar net olduğu konusunda ise Tuncer, "ABD'nin konuya ilişkin yaklaşımı 2015 tarihinde yayınlanan ve 2023'te güncellenen Savunma Bakanlığı Savaş Hukuku Kılavuzu ve 2023 tarihli Silah Sistemlerinde Otonomi Direktifi'nde ortaya konuyor. Bu bağlamda, yapay zeka kullanımına dayanan otonom silah sistemlerinin kullanımına ve hukuki denetimine dair ulusal bir yaklaşımın olduğu görülüyor. Ancak bu çerçevenin hukuki olarak ne miktarda bağlayıcı olduğu ve sahada bu ilkelere ne kadar bağlı kalındığı hususu, gelecek için belirsizliği artıran bir faktör olarak değerlendirilebilir" açıklamasında bulundu. Bu durum, ulusal düzenlemelerin varlığının, uygulamanın ve bağlayıcılığının belirsizliğini vurguluyor.

Tam Otonom Silahlar: Tanım Boşlukları ve Hukuki Zorluklar

"Tam otonom silahlar" kavramının hukuki içeriği konusuna da değinen Tuncer, uluslararası insancıl hukukta bu tür sistemlere ilişkin net bir tanım bulunmamakla birlikte, uygulamada ortaya çıkan bazı tanımlara dikkat çekti. Örneğin, Uluslararası Kızılhaç Komitesi'ne (ICRC) göre otonom silah sistemleri, herhangi bir insan müdahalesi olmadan hedef seçen ve kuvvet kullanan sistemler olarak tanımlanıyor. ABD Savunma Bakanlığı ise bu sistemleri, etkinleştirildikten sonra operatör tarafından başka bir müdahale olmaksızın hedefleri seçip vurabilen sistemler olarak tanımlıyor. Ancak ABD yaklaşımına göre, otonom silah sistemlerinin operatörünün, sistemin faaliyetlerini denetleme ve gerektiğinde iptal etme yetkisi de bulunabileceği belirtildi. Bu farklılıklar, özellikle tam otonom silahların hukuki çerçevesini daha da karmaşık hale getiriyor.

Uluslararası Hukukta Yapay Zeka Düzenlemeleri ve Temel İlkeler

Uluslararası hukukta açık ve özel bir yapay zeka düzenlemesi bulunmamakla birlikte, yeni silah teknolojilerine ilişkin kuralların yapay zeka ve otonom silah sistemleri üzerinde de uygulanacağı değerlendiriliyor. Ancak asıl sorunun, hukuki denetimin net bir küresel çerçeve yerine devletlerin farklı uygulamaları üzerinden ilerlemesinden kaynaklandığını dile getiren Tuncer, "Bu bağlamda, uluslararası insancıl hukukun temel ilkeleri olan askeri hedef ve sivillerin ayırt edilmesi (ayırt etme ilkesi), sivillerin saldırılar neticesinde elde edilecek askeri avantaja kıyasla orantısız bir zarar görmemesi (orantılılık ilkesi) ve devletlerin operasyonları yürütürken bu maksatla alınabilecek bütün tedbirleri alması (tedbir alma ilkesi) şartlarının sağlanması maksadıyla devletlerin otonom silah sistemlerinin hukuka uygunluk denetimi yükümlülüğünün olduğu kabul ediliyor. Ancak özellikle yapay zekanın sürece dahil olmasıyla birlikte, bu hukuki denetimin nasıl uygulanacağı ve hangi sınırlamalara tabi olduğu hususları net bir hukuki çerçeve üzerinden değil, devletlerin birbirinden yer yer farklılık gösteren uygulamaları üzerinden ilerliyor" diye konuştu.

Sınırların Net Tanımlanması Gerekliliği

OpenAI Üst Yöneticisi (CEO) Sam Altman'ın, yapay zeka modellerini ABD Savunma Bakanlığı'nın gizli ağına konuşlandırmak üzere vardıkları sözleşmeye imza koyduklarını açıklamasının ardından, bunun yeterli bir güvence olup olmadığı konusunda ise Mustafa Tuncer, önemli bir noktaya dikkat çekti: "Bu sorun, temelde insan denetimi kavramının uluslararası hukukta ve ABD hukukunda net bir içeriğe sahip olmaması ve değişime açık olmasından kaynaklanıyor. Kitlesel gözetimin iç hukuktaki belirsizliği ve olası bir değişime açıklığı hukuki belirsizliği artıran bir diğer faktör olarak değerlendirilebilir. Sözleşmeye eklenmesi halinde dahi bu kavramların değişimi dikkate alındığında, en bağlayıcı ve hukuken güvenli seçeneğin bu kavramların sözleşme özelinde net bir şekilde tanımlanması ve bunun olası iç hukuk değişikliklerinden hariç tutulacak bir şekilde değerlendirilmesi olduğu söylenebilir." Bu, yapay zekanın savaş alanındaki kullanımına ilişkin hukuki güvenliğin sağlanması için kavramların daha net ve bağlayıcı bir şekilde tanımlanması gerektiğini gösteriyor.

Son Haberler