Yapay zekâyı nasıl düzenleyelim?

Burak DALGIN Dünya Penceresi

Enigma filminden hatırlayabileceğiniz Alan Turing, bir makinenin düşünebildiğini nasıl test edebileceğimize dair makalesini 1950’de yazdı. Bir insan ömründen kısa bir süre sonra, bugün yapay zekâ hayatımızın içinde. Peki, bu teknolojiyi sınırlamalı mıyız?

Yapay zekâ ile beynimizdeki düşünce, algı ve bilinci çipler üzerinde sağlamak hedefleniyor. Konuşma tanıma ve şarkı hatırlama gibi iletişim uygulamaları, insanla satranç ve masa tenisi oynayan makineler, veya şarap eleştirmenlerinden daha rafine yapay dil, dokunma hissine sahip yapay kol gibi duyu organları hep bu alana giriyor. Yapay zekâ, sürücüsüz araç, kişinin ihtiyaçlarına özel eğitim, mevzuatı hızla tarayarak hukuki görüş veya hiçbir detayı atlamadan tıbbi testleri değerlendirme gibi pek çok alanda hayatımızı kolaylaştıracak.

Ancak, çoğu şeyde olduğu gibi bu alanda da her şey tozpembe değil. Zira yapay zekâ uygulamaları kişilerin temel haklarını ve güvenliğini tehdit edebilirler (vatandaşlarını faaliyetlerine göre ‘puanlayan’ hükümetler). Algoritmalar mevcut verileri işleyerek çalıştıkları için toplumdaki dengesizlikleri geleceğe doğru büyütebilirler (kadınların iş başvuruları veya kredi kartı limiti taleplerinin değerlendirilmesi). Nihayet, işin daha felsefi tarafında (Turing’in makalesinin de bir analitik felsefe dergisi olan Mind’da çıktığını hatırlatayım!), hayatımızla alakalı her kararın soğukkanlı ve rasyonel şekilde verilmesini istemeyebiliriz (ağır hastaların tedaviye tamam/ devam kararı).

Bunlar önümüzdeki senelerde çok sık karşılaşacağımız ve bence cevapların ‘siyah - beyaz’ değil, grinin muhtelif tonlarında olacağı sorular.

Nisan sonunda, Avrupa Komisyonu bu denge arayışına kendi cevabını verdi. Avrupa Birliği’nde yapay zekâ uygulamalarının dört kategoride değerlendirilmesini öneren çerçeve dokümanını görüşe açtı:

KABUL EDİLEMEZ: Temel insan haklarını ihlal ettiği düşünülen uygulamalar yasak olacak. Örneğin vatandaşların puanlanması, çocukların tehlikeli şeylere yönlendirilmesi, subliminal pazarlama yapılması ve kamuya açık alanlarda biyometrik tanıma yapılması (bazı istisnalarla).

YÜKSEK RİSK: Bu kategorideki uygulamalar gerek halka sunulmadan gerek kullanıldığı süre boyunca düzenlemelere tabi olacak. Örneğin hayati risk taşıyan ulaşım (sürücüsüz araç), eğitim (sınav değerlendirme), sağlık (robot destekli ameliyatlar), istihdam (özgeçmiş değerlendirme), temel bireysel ve kamusal hizmetler (kredi skorlama), sınır kontrolü (seyahat belgelerinin teyidi) ve hukuk (hüküm verme, kanıt değerlendirme) ile ilgili ürünler.

AZ RİSKLİ. Bu uygulamalarda sadece kullanıcıyı bilgilendirme şartı olacak. Örneğin ‘chatbot’lar.

RİSKSİZ. Geri kalan yapay zekâ uygulamaları (video oyunları, spam filtreleri) herhangi bir düzenlemeye tabi olmayacak.

Şirketlerimiz, neredeyse her sektörü kökünden etkileyecek bu teknolojileri ve en yakın ekonomik ortağımız Avrupa Birliği’ndeki düzenlemeleri yakından izlemek zorunda. Çünkü artık bunlar yarının değil, bugünün konuları!

Tüm yazılarını göster