Yapay zekâ insan için tehlikeli mi?

Hilmi DEVELİ EKONOMİDE SATIR ARASI

Yapay zekâ sektörü her geçen gün daha da büyüyor. İnsanların hayatını kolaylaştırıyor, sağlıktan savunmaya pek çok sektörde verimi artırıyor. Genellikle yapay zekâ sistemleri sadece insan seviyesinde performansa ulaşmıyor, aynı zamanda onu önemli ölçüde aşıyor.

İnsan tarafından çok hızlı olarak verilemeyecek kararlar, yapay zekâ tarafından son derece hızlı bir şekilde verilebiliyor. Yine insan tarafından kolayca çözülmesi zor olan karmaşık mantık süreçleri içeren problemler de yapay zekâ algoritmaları sayesinde son derece kısa sürede çözümlenebiliyor. Ancak yapay zekâ kullanımı birçok riski de barındırıyor.

Tehlikeli mi?

Suçlular makineleri hecklemek ya da şifre çalmak üzere insan kapasitesi seviyesinde eğitebilir ya da gözetleme, fişleme ve baskı amacıyla kullanılabilir.

Güvenlik üzerindeki etkileri çok büyük… Teknolojinin toplum ve insanlık için derin bir risk oluşturduğuna ve yıkıcı etkileri olabileceğini öngörenlerden Elon Musk ve Apple'ın kurucularından Steve Wozniak yapay zekânın insanlık için bir felaket olabileceğini söylüyor.

Bill Gates ve Google ise yapay zekânın insanlığın geleceği olduğuna inanıyor.

Reuters/ Ipsos anketine katılan Amerikalıların çoğuna göre, “Yapay zekâ teknolojisinin hızlı büyümesi insanlığın geleceğini riske atabilir “ görüşündeler. OpenAI'nin ChatGPT sohbet robotu, tüm zamanların en hızlı büyüyen uygulaması haline geldiğinden beri, yapay zekânın günlük hayata yaygın entegrasyonu, yapay zekâyı kamusal söylemin ön saflarına itti.

ChatGPT kamuoyunu o kadar şaşırttı ki hem korku hem de heyecan dolu bir tartışma ortaya çıktı.

Elon Musk, Steve Wozniak gibi önde gelen isimler, yapay zekâ gelişiminin 6 ay için durdurulmasını ve düzenlemelerin ardından devam etmesini öneren mektup kaleme aldılar.

 Bu grup, yapay zekânın kontrol edilemeyen bir noktaya kısa sürede ulaşabileceğini ve insanlığın geleceğini tehdit edebileceğini savunuyor.

Diğer yandan, karşıt görüşte olanların başındaki OpenAI kurucusu Sam Altman ve Eric Schmidt gibi isimler duraklamanın sadece Çin gibi ülkelere yarayacağını, piyasa ekonomisinde teknoloji moratoryumunun işe yaramayacağını ve demokratik dünyanın otoriter dünyaya karşı güç kaybedebileceğini öne sürüyor.

Yapay zekâ teknolojisinin insanlığa karşı olası tehlikelerini araştırmak için kurulan Future of Life örgütü de, Mart ayında yaptığı açıklamada gelişmiş yapay zekâ laboratuvarlarına araştırmalarını durdurma çağrısında bulundu.

Oxford Üniversitesi'nden uzmanlar, yapay zekâ sonunda insanlardan daha zeki hale geldiğinde, muhtemelen insanlığın soyu tükenen bir kuş türü olan Dodo’ya yaptığı kadar büyük bir tehdit oluşturacağını söylüyorlar.

Kendi yaratıcılarını bile aşan dijital zekâya sahip, kontrolden çıkmış ve öngörülemez bir ırk yaratmak üzereler. Kanun yapıcılar ve AI şirketleri de konuyla ilgili endişeli OpenAI CEO'su Sam Altman, ABD Kongresi önünde ifade vererek teknolojinin potansiyel kötüye kullanımına ilişkin endişelerini dile getirdi ve düzenleme talep etti. Avrupa hükümetleri için de yapay zekâ konusu bir tartışma haline geldi. Kıta, özellikle ünlü sohbet robotu ChatGPT hakkında endişe duymaya başladı.

Yapay zeka insanın geleceğine hangi tehditleri oluşturabilecek

- Arıza veya Hatalar: AI sistemleri arızalanabilir veya hatalarla karşılaşabilir, bu da insan güvenliğini tehdit edebilecek istenmeyen sonuçlara yol açabilir.

 Örneğin, yapay zekâ sistemi arızalı olan sürücüsüz bir araba bir kazaya, hatta yaralanma ya da ölümlerle sonuçlanacak durumlara neden olabilir.

 Bu durumda sorumluluğun kimde olacağına dair tartışmalar, yapay zekâ etiği ve hukuki sorumluluklar sıkça konuşulan ancak şu ana kadar somut adımlara dönüşemeyen konular arasında.

 - Hesap Verebilirlik / Sorumluluk: Yapay zeka sistemlerinin geliştirilmesinde bireysel ve kurumsal düzeyde pek çok aktör rol alıyor.

 Herhangi bir net sorumluluk çizgisi olmadan geliştirilen bu sistemlerde meydana gelebilecek bir sorun, bir hacklenme ya da yolsuzluk durumunda kimin sorumlu olduğunu belirlemek oldukça zor.

 - Önyargı ve Ayrımcılık: AI sistemleri, özellikle önyargılı veri kümeleri üzerinden eğitilmeleri durumunda önyargılı ve ayrımcı sonuçlar veriyorlar. Bu durum da azınlıklar veya kadınlar gibi bazı dezavantajlı insan gruplarına karşı haksız muameleyle sonuçlanabiliyor. Bunun çarpıcı bir örneği insan kaynakları alanında geliştirilen bir yapay zekâ uygulamasıydı. İşe alım süreçlerinde insanların önyargıları dolayısıyla erkeklerin, beyaz ırk mensuplarının ve herhangi bir azınlık grubuna dahil olmayan kişilerin imtiyazlı hale geldikleri acı bir gerçek…

CV’leri taramaktan ve iş tanımına göre en uygun adayı seçmekten sorumlu bir yapay zeka uygulaması bu ayrımcı veriyle beslenince, kendisi de en uygun aday yerine imtiyazlı gruplardan gelen adayları işlere yerleştirmeye başlamış ve bu nedenle uygulamaya son verilmişti.

- İstihdam ve işsizliğe ilişkin kaygılar: AI, şu anda insanlar tarafından gerçekleştirilen birçok işi otomatikleştirmiş durumda. Önümüzdeki yıllarda bu durumun pek çok farklı sektöre ve meslek grubunu da yayılması bekleniyor. Dolayısıyla yapay zekânın zaten dünya çapında yükselmekte olan işsizlik sorununu daha da derinleştireceği aşikâr.

- Silah ve savaş teknolojileri: Yapay zekâ potansiyel olarak, insan müdahalesi olmadan saldırılar gerçekleştirmek ve insan yaşamının kaybına yol açabilecek otonom silahlar geliştirmek için de kullanılabiliyor.

Hatta bu alandaki uygulamaların izleme uygulamaları ile birlikte en çok yatırım alan uygulamalar arasında olduklarını görüyoruz.

 Öte yandan bu gelişmelerin kamuya yansımaması için de büyük bir çaba sarf ediliyor ve bu durum da endişeleri bir kat daha arttırıyor. 

- Gizlilik ve güvenlik: AI sistemlerinin kendilerini geliştirmelerinin ön koşulu daha çok ve çeşitli veriye ulaşabilmeleri. Haliyle bu sistemlerin gizlilik, güvenlik ve mahremiyet ile ilgili endişeleri arttıran çok miktarda veri toplayabilmesi, analiz etmesi ve uygulamaya alması da muhtemel. Bu gibi durumlar için geliştirilmiş protokoller olsa da, bu protokollerin ve olası tedbirlerin yürürlüğe koyulması henüz yasalarla garanti altına alınmış değil. Dolayısıyla hassas verilere yetkisiz erişim, kimlik hırsızlığı ya da finansal dolandırıcılık gibi siber suçlarla ilgili yüksek riskler söz konusu. Yapay zekânın insanlığa karşı tek bir zekâ olarak hareket etmesi insanlığın sonunu bir anda getirebilir. Mesela, bir anda gruplaşan yapay zekâ uygulamaları ve robotlar insanların hayatını bir karmaşaya ve felakete sürükleyebilir.

Devletlerin yapay zekâ politikalarını ve yasal önlemlerini alması gerekiyor.

 Eğer zamanında önlemler alınmaz ise kontrolü zor bir döneme girilmesi kaçınılmaz hale gelecek. Yapay zekâ geliştirmelerinde yapay zekânın insanın müdahale edemeyeceği alanları belirlemesi ve belirlediği alanlarda yazılımsal sınırlamalar getirmesi gerekiyor.

Massachusetts Institute of Technology'nin yöneticilerinden Aleksander Madry 'İnsanoğlunun sonu gelecek!' gibi uçarı bir açıklama yapmanın tuhaf olduğu, sansasyonel açıklamaların insanları gerçek sorunlardan uzaklaştırdığını söylüyor.

Yapay zekanın insanlığa yönelik riskleri ve alınması gereken önlemlere ilişkin açık kaynaklardan derlediğim bilgiler özetle bunlar…

Tüm yazılarını göster