İsrail'in Gazze'deki soğukkanlı katili: Yapay zeka
- GİRİŞ01.12.2024 10:23
- GÜNCELLEME02.12.2024 12:48
İsrail, Gazze'deki katliamlarını yapay zeka tabanlı saldırı sistemleriyle sürdürüyor. İnsan faktörünü devre dışı bırakan sistemler, sivil-asker, kadın-çocuk ayrımı yapmadan ölüm saçıyor. "Habsora" ve "Lavender" gibi yapay zeka tabanlı saldırı sistemleri, Gazze'deki 2 milyondan fazla kişinin bilgilerini, sosyal medya, WhatsApp paylaşımları ve istihbarat raporları aracılığıyla depoluyor.
Siyaset, Ekonomi ve Toplum Araştırmaları Vakfı (SETA) araştırmacıları, "Ölümcül algoritmalar: Gazze savaşında yapay zekanın yıkıcı rolü" başlıklı bir rapor hazırladı. Raporda, İsrail'in yapay zeka tabanlı saldırı sistemleri ile uluslararası savaş hukukunu nasıl ihlal ettiği gözler önüne serildi.
Modern savaşın çehresi hızla değişiyor. Yapay Zeka (YZ), artık bilim kurgu filmlerinin konusu olmaktan çıkıp, savaş alanlarında giderek daha belirleyici bir rol oynuyor. İsrail, yapay zeka teknolojilerini Gazze'de gerçekleştirdiği katliamlarda yoğun şekilde kullanıyor.
Akıllı mühimmat yerine "Aptal bombalar" kullanılıyor
İsrail, YZ destekli sistemlerin büyük çoğunluğunu Filistin'e yönelik saldırılarında geniş çapta kullanıyor ve bu süreçlerde insan müdahalesini en aza indiriyor.
"Habsora" ve "Lavender" gibi yapay zeka tabanlı saldırı sistemleri, Gazze'deki 2 milyondan fazla kişinin bilgilerini, sosyal medya, WhatsApp paylaşımları ve istihbarat raporları aracılığıyla depoluyor.
Ayrıca, sivil hassasiyeti için akıllı mühimmat kullanılması gerekirken, "aptal bombalar" kullanılıyor. Bu durum, pahalı akıllı mühimmatlardan tasarruf sağlarken, hedef belirlenen kişilerin etrafındaki sivillerin de hayatını kaybetmesine neden oluyor.
İnsan hakları ihlallerini daha da derinleştiriyor
Özellikle "Lavender" gibi sistemler, sivillerin yaşadığı bölgeleri göz ardı ederek hedef tespiti yapıyor. Yapay zeka tarafından otomatik olarak işaretlenen hedefler, uluslararası hukuk ilkelerini yok sayarak vuruluyor ve bu durum sivillerin yüksek oranda zarar görmesine yol açıyor.
İsrail, sivil kayıpları "yan hasar" olarak kabul ediyor ve bir saldırıda 20, hatta 100 civarında sivilin ölebileceği raporlarına rağmen saldırılar gerçekleştirmeye devam ediyor.
Resmi olarak "Lavender" sistemi, Hamas ve Filistin İslami Cihad'ın askeri kanatlarındaki düşük rütbeliler de dahil olmak üzere tüm şüpheli kişileri potansiyel bombalama hedefi olarak işaretlemek üzere tasarlanmıştır. Kaynaklar, savaşın ilk haftalarında ordunun neredeyse tamamen "Lavender"e güvendiğini, "Lavender"in 37 bin kadar Filistinliyi ve evlerini olası hava saldırıları için şüpheli olarak işaretlediğini söyledi. Sonuç olarak, İsrail'in yapay zeka teknolojilerini kullanarak gerçekleştirdiği saldırılar uluslararası hukuk açısından büyük sorunlara yol açıyor.
Sivil kayıpların bilerek ve kasten kabul edildiği saldırılar dikkat çekiyor
Yapay zeka sistemlerinin sivil alanlardaki hedef tespiti sırasında yaptıkları hatalar sivillerin yanlış hedef alınmasına ve ciddi insan hakları ihlallerine yol açma potansiyeli taşıyor. İsrail'in saldırılarında ise bu riskin ötesinde sivil kayıpların bilerek ve kasten kabul edildiği saldırılar dikkat çekiyor.
İsrail'in saldırılarında bu teknolojilerin yoğun kullanımı sivil kayıpların artmasına neden oluyor ve uluslararası insancıl hukuk çerçevesinde yoğun eleştirilere yol açıyor. Sivil kayıpların "yan hasar" olarak değerlendirilmesi ise bu ihlallerin ciddiyetini artırıyor.
İsrail'in sivillere yönelik saldırıları savaş hukukunun ihlali
Birleşmiş Milletler (BM) ve insan hakları örgütleri, İsrail'in sivillere yönelik saldırılarının savaş hukukunu sistematik olarak ihlal ettiğini raporluyor. Bu saldırılar, uluslararası savaş hukuku çerçevesinde korunan sivil nüfusun doğrudan hedef alındığını ve bu durumun savaş suçları kapsamında değerlendirilebileceğini ortaya koyuyor.
Bu yazıya ilk yorum yapan sen ol