Yapay zeka ve İsrail: Teknoloji şirketleri suç ortağı mı?
Yapay zeka uzmanı Heidy Khlaaf, İsrail'in Gazze'ye yönelik saldırılarında yapay zekayı Google, Microsoft ve Amazon gibi şirketlerle işbirliği içinde kullandığını belirterek, "Savaş suçlarına yol gösterdilerse, bu onları suç ortağı yapar." ifadelerini kullandı.
İsrail ordusunun, Gazze'de toplu gözetleme yapma, hedefleri belirleme, on binlerce sivile yönelik saldırı düzenleme amacıyla "Habsora" (The Gospel), "Lavender" ve "Where is Daddy?" isimli yapay zeka sistemlerini kullandığı biliniyor.
İnsan hakları grupları ve uzmanlar, bu sistemlerin, İsrail'in ayrım gözetmeksizin binlerce kişinin öldürülmesine yol açan saldırılar düzenlemesinde rol oynadığını ifade ediyor.
"İsrail'in Gazze'de yapay zeka uygulamalarını kullanması teknoloji şirketlerini suç ortağı haline getirebilir"
Yapay zeka aracı ChatGPT'nin geliştiricisi OpenAI'ın eski sistem güvenliği mühendisi Heidy Khlaaf, İsrail ordusunun saldırılarında yapay zeka kullanımına ilişkin AA muhabirine değerlendirmelerde bulundu.
"AI Now Institute" adlı kuruluşta yapay zeka alanında başaraştırmacı olarak görev yapan Khlaaf, "Kesin doğruluğu olmadığını bildiğimiz yapay zeka modellerinin açıkça kullanımıyla Gazze'de gördüğümüz gibi toplu sivil ölümlerinin normalleşmesini göreceğiz." dedi.
Khlaaf, "Bu durum, orduların, yapay zeka sistemine işaret ederek 'Bak, algoritma buna karar verdi. Ben yapmadım.' diyerek olası savaş suçlarından sorumlu tutulmamasına yol açacak tehlikeli bir kombinasyon." diye konuştu.
İsrail'in saldırılarının, istihbarat toplanmasından nihai hedef seçimine kadar "neredeyse tüm adımlarda" yapay zeka sistemlerini kullandığını belirten Khlaaf, bu yapay zeka modellerinin uydu görüntüleri, ele geçirilen iletişim bilgileri, grup ya da kişilerin takip edilmesi gibi çeşitli verileri kullandığını ifade etti.
Khlaaf, bu verilerden yola çıkarak yapay zeka sistemlerinin, "gelecek hedeflerin konumunu tahmin ettiğini" ancak bu tahminlerin her zaman doğru olmayabileceğini söyledi.
Google'ın Gemini, OpenAI'ın GPT-4 modeli gibi büyük dil modellerinin (LLM) Filistinlilerin iletişim sistemlerine erişerek konuşmalarını tercüme ettiğini kaydeden Khlaaf, "sadece anahtar kelimelerden yola çıkarak" kişilerin hedef listesine eklendiğini dile getirdi.
Khlaaf, İsrail'in yapay zekanın belirlediği hedeflerin doğruluğunu kontrol etmediğini vurgulayarak "Maalesef değerlendirmeler, hedef belirlemek için kullanılan yapay zeka modellerinin, yüzde 25 kadar düşük doğruluk oranı olabildiğini gösteriyor." dedi.
İsrail ordusunun "bir kişiyi hedef alırken çok sayıda sivili öldürmekten kaçınmadığını" ve yapay zekanın yüksek hata oranı olduğunu belirten Khlaaf, bu şekilde "hatalı otomasyon" kullanarak hedef seçilmesinin, ayrım gözetmeksizin bombalamadan pek farklı olmadığının altını çizdi.
"Yapay zeka, hatalı hedef almanın normalleştirildiği bir emsal oluşturuyor"
Khlaaf, İsrail'in yapay zeka ile belirlenen hedeflerinin kontrolünün "çok üstünkörü bir kılavuzla" denetlendiğini ve bunun, sivil kayıpların en aza indirilmesine yönelik çabalara ilişkin şüphe uyandırdığını belirterek "Yapay zeka, hatalı hedef almanın normalleştirildiği bir emsal oluşturuyor ve bu modellerin ölçeği ve karmaşıklığı nedeniyle herhangi bir kişiyi ya da orduyu sorumlu tutabilecek kararlarının izini sürmek imkansız hale geliyor." diye konuştu.
Dünyanın yasal denetim ve hesap verebilirlikten yoksun, tamamen otomatikleştirilmiş hedefleme sistemlerinin benimsenmesine tanıklık ettiğini belirten Khlaaf, bu eğilimin İsrail, ABD Savunma Bakanlığı ve Avrupa Birliği (AB) yatırımlarıyla desteklendiğini söyledi.
Khlaaf, askeri yapay zeka teknolojilerine ilişkin açık ve kapsamlı bir yasak olmadığını ve bu alandaki eksikliğe henüz yeterli çözüm getirilmediğini vurgulayarak yasal ve teknik çerçevelerin yapay zeka temelli savaşlara hazır olmadığını kaydetti.
Heidy Khlaaf, "Yapay zekanın sivil kayıplara nasıl yol açtığının izini sürmek zorsa çok fazla sivilin öldürülmesinin sorumluluğundan kaçınılması için yapay zekanın yoğun kullanıldığı bir senaryoyu da hayal edebilirsiniz." ifadesini kullandı.
"Teknoloji şirketlerinin açık işbirliği"
ABD merkezli teknoloji şirketlerinin, özellikle 2021'den bu yana Google ve Amazon'un İsrail ordusuna yapay zeka ve bulut hizmetleri sağladığına dikkati çeken Khlaaf, "Bu yeni bir akım değil." dedi.
Khlaaf, İsrail'in, Ekim 2023'ten sonra Microsoft'un bulut bilişim hizmetleri, yapay zeka modelleri ve teknik desteğine giderek daha fazla başvurmaya başlamasıyla işbirliklerinin daha da derinleştiğini ifade etti.
Palantir gibi bazı şirketlerin de İsrail ordusunun askeri operasyonlarıyla bağlantılı olduğunu belirten Khlaaf, bu şirketlerin yaptıklarına ilişkin detayların kısıtlı olduğunu kaydetti.
Yapay zeka uzmanı Khlaaf, "İsrail ordusunun yalnızca hazır bulut ya da yapay zeka hizmetlerini alıp doğrudan askeri uygulamalara entegre etmediğini vurgulamak önemli." değerlendirmesinde bulundu.
Heidy Khlaaf, Amazon, Google ve Microsoft'un, yapay zekanın düşük doğruluk oranına, hata risklerine ve İsrail ordusunun bu teknolojileri nasıl kullanmak istediğine ilişkin tüm risklerin farkında olmasına rağmen "İsrail ordusuyla açık işbirliği içinde" olduğunu dile getirdi.
Bu şirketlerin ordunun yapay zeka tabanlı sistemleri istihbarat ve hedefleme amaçlı geliştirmesine ya da kullanmasına doğrudan olanak sağladığını ifade eden Khlaaf, "İsrail ordusunun belirli savaş suçları işlediği tespit edildiyse ve teknoloji şirketleri bu savaş suçlarının işlenmesinde onlara yol göstermişse o zaman evet, bu onları oldukça suç ortağı haline getirir." diye konuştu.
Değerli ekonomim.com okurları,
ekonomim.com ekibi olarak Türkiye'de ve dünyada yaşanan, haber değeri taşıyan gelişmeleri sizlere en hızlı, tarafsız ve kapsamlı şekilde sunmak için çalışıyoruz. Bu süreçte sunduğumuz haberlerle ilgili eleştiri, görüş ve yorumlarınız bizim için çok değerli. Ancak, karşılıklı saygı ve hukuka uygunluk çerçevesinde, daha sağlıklı bir tartışma ortamı oluşturmak adına yorum platformumuzda uyguladığımız bazı kurallarımız bulunmaktadır.
Sayfamızda Türkiye Cumhuriyeti kanunlarına ve evrensel insan haklarına aykırı yorumlar onaylanmaz ve silinir. Okurlarımız tarafından yapılan yorumların, (diğer okurlara yönelik olanlar da dahil) kişilere, ülkelere, topluluklara, sosyal sınıflara ırk, cinsiyet, din, dil başta olmak üzere ayrımcılık içermesi durumunda, yorum editörlerimiz bu yorumları onaylamayacak ve silecektir. Onaylanmayacak ve silinecek yorumlar arasında aşağılama, nefret söylemi, küfür, hakaret, kadın ve çocuk istismarı, hayvanlara yönelik şiddet söylemleri de yer almaktadır. Suçu ve suçluyu övmek, Türkiye Cumhuriyeti yasalarına göre suçtur, bu nedenle bu tür yorumlar da ekonomim.com sayfalarında yer almayacaktır.
Ayrıca, Türkiye Cumhuriyeti mahkemelerinde doğruluğu kanıtlanamayan iddia, itham ve karalama içeren, halkı kin ve düşmanlığa tahrik eden, provokatif yorumlar da yapılamaz.
Markaların ticari itibarını zedeleyici, karalayıcı ve ticari zarara yol açabilecek yorumlar onaylanmaz ve silinir. Aynı şekilde, bir markaya yönelik promosyon veya reklam amaçlı yorumlar da onaylanmaz ve silinecek yorumlar kategorisindedir. Diğer web sitelerinden alınan bağlantılar ekonomim.com yorum alanında paylaşılamaz.
ekonomim.com yorum alanında paylaşılan tüm yorumların yasal sorumluluğu yorumu yapan kullanıcıya aittir, ekonomim.com bu sorumluluğu üstlenmez.
ekonomim.com'de yorum yapan her okur, yukarıda belirtilen kuralları, sitemizde yer alan Kullanım Koşulları'nı ve Gizlilik Sözleşmesi'ni okumuş ve kabul etmiş sayılır.
Kurallarımıza uygun şekilde saygı, nezaket, birlikte yaşama kuralları ve insan haklarına uygun yorumlarınız için teşekkür ederiz.