Haber Arama
Haber Yada Kategori Arayın...
Savaşta yapay zeka
İran saldırılarında kullanılan yapay zeka hukuki tartışmaya sebep oldu
ABD ve İsrail’in İran’a yönelik saldırılarında yapay zeka teknolojilerinden yararlanması, hedef belirleme süreçlerinde insan denetiminin azalması ve sivillerin korunması konusundaki riskler nedeniyle uluslararası hukuk çevrelerinde yeni tartışmaların doğmasına yol açtı.

Basına yansıyan bilgilere göre ABD, İran’daki saldırı planlamalarında ABD merkezli teknoloji şirketi Anthropic tarafından geliştirilen ve istihbarat analizleri yapabilen “Claude” adlı yapay zeka modelinden yararlandı.

Claude benzeri yapay zeka destekli sistemler, insansız hava araçlarından elde edilen görüntüler, iletişim dinlemeleri ve sahadan gelen insan istihbaratı gibi çok farklı kaynaklardan toplanan büyük veri setlerini kısa sürede analiz edebiliyor. Bu analizler sonucunda olası hedefler belirlenebiliyor ve saldırı seçenekleri oluşturulabiliyor.

Bu tür teknolojiler, çatışma sırasında hedef tespiti, hukuki değerlendirme ve saldırı kararları arasındaki süreci hızlandırıyor. Askeri literatürde “öldürme zinciri” olarak adlandırılan hedefleme süresinin önemli ölçüde kısalması ise yapay zekanın savaş alanındaki rolüne ilişkin tartışmaları artırıyor.

ABD ve İsrail’in İran’a yönelik operasyonlarında yapay zeka tabanlı sistemlerin kullanıldığına dair iddialar, bu teknolojilerin çatışmalarda nasıl kullanıldığı ve uluslararası hukuk açısından ne gibi sonuçlar doğurabileceği sorularını yeniden gündeme getirdi.

Yapay zeka hedefleme sürecini hızlandırıyor

Kanada’nın Ontario eyaletindeki Toronto kentinde bulunan York Üniversitesinde görev yapan Uluslararası Hukuk Profesörü Heidi Matthews, yapay zekanın askeri operasyonlardaki rolünü ve bunun uluslararası hukuk açısından yaratabileceği riskleri değerlendirdi.

Matthews, yapay zekanın hedef belirleme süreçlerinde kullanılmasının uzun süredir uluslararası hukuk ve insan hakları çevrelerinde ciddi kaygılar doğurduğunu belirtti.

Uluslararası insancıl hukuk kapsamında savaşan tarafların siviller ile askeri hedefler arasında açık bir ayrım yapmak zorunda olduğunu hatırlatan Matthews, hedef belirleme sürecinde doğrulama, önleyici tedbirler alma ve sivillere saldırıdan önce kaçabilecekleri makul bir süre tanıma gibi kuralların bulunduğunu ifade etti.

İran’daki saldırılarda yapay zekanın rolü araştırılmalı

Matthews, İran’da sivillerin hayatını kaybettiği bazı saldırılarda hedef belirleme sürecinde yapay zekanın rol oynamış olabileceğine ilişkin endişelerin bulunduğunu ifade etti.

ABD ve İsrail’in İran’a yönelik saldırılarında yapay zeka tabanlı sistemlerin kullanıldığına dair haberler bulunduğunu hatırlatan Matthews, bu saldırılarda teknolojinin etkisinin olup olmadığının ayrıntılı biçimde araştırılması gerektiğini vurguladı.

Matthews, ABD’nin İran’da hedef belirleme ve önceliklendirme amacıyla yapay zeka araçlarını yaygın şekilde kullandığını bildiklerini belirterek, Minab kentindeki kız ilkokuluna düzenlenen ve 150’den fazla kişinin hayatını kaybettiği, 100’den fazla kişinin yaralandığı saldırıda da yapay zekanın rol oynamış olabileceğine dair şüpheler bulunduğunu dile getirdi.

Bu olayla ilgili soruşturmaların sonuçlanmasının ve daha fazla bilginin açıklanmasının beklendiğini belirten Matthews, yapay zekanın hata yapma ihtimali göz önüne alındığında bu trajik olayda teknolojinin ne ölçüde rol oynadığının ciddi biçimde sorgulanması gerektiğini söyledi.

Matthews ayrıca hedef belirleme süreçlerinde yapay zekanın yoğun şekilde kullanılmasının hastane gibi sivil yapıların yanlışlıkla askeri hedef olarak tanımlanması riskini de artırabileceğini belirtti.

Yapay zeka dezenformasyon riskini de artırıyor

Matthews, yapay zeka teknolojilerinin son yıllarda hızla yaygınlaşarak günlük yaşamın birçok alanında olduğu gibi askeri faaliyetlerde de kullanılmaya başlandığını söyledi.

Buna karşın özellikle yaşam ve ölüm kararlarının söz konusu olduğu askeri operasyonlarda yapay zekanın rolüne ilişkin yeterli politika tartışmasının henüz yapılmadığını vurguladı.

Yapay zekanın yalnızca askeri operasyonlarda değil, aynı zamanda yanlış bilgi ve dezenformasyonun yayılmasında da etkili olabildiğini belirten Matthews, İran’ın Minab kentindeki saldırıdan sonra sosyal medyada dolaşıma giren bazı görüntüler hakkında yapay zeka araçlarının yanlış değerlendirmelerde bulunduğunu ifade etti.

Bu tür hataların kamuoyunda yanlış bilgilerin hızla yayılmasına yol açabildiğini söyleyen Matthews, yapay zekanın zaman zaman hatalı sonuçlar üretebildiğini ve özellikle silahlı çatışmalar gibi hassas konularda bunun ciddi sonuçlar doğurabileceğini dile getirdi.

Yanlış bilgi ve dezenformasyonun gerçeklerin sorgulanmasına neden olabileceğini belirten Matthews, bu durumun savaş suçlarına ilişkin iddiaların değerlendirilmesini de zorlaştırabileceğine dikkat çekti.

Matthews, özellikle Donald Trump döneminde güç kazanan sahte haber olgusunun şüphe, yanlış bilgi ve dezenformasyon üzerinden yayıldığını belirterek şu ifadeleri kullandı:

“Şüphe ve yanlış bilgi bir kez yayıldığında doğruluk meselesi geri plana düşer. Böylece gerçeklik çoğu zaman ilk kaybedilen unsur olur.”

Matthews ayrıca sahte haberlerin çatışma ortamlarında işlenen suçların meşruymuş gibi gösterilmesine veya gizlenmesine de zemin hazırlayabileceği konusunda uyarıda bulundu.

Reklam Banner
Reklam Banner
Diğer Haberler
2026
Pusula Swiss – Tüm hakları saklıdır.
Özel Haber
Etkinlik
Anasayfa
Yazarlar
Video