Yapay zekâ insan ırkının son başarısı olabilir!

Yapay zekâ insan ırkının son başarısı olabilir!

İnsanlığın konfor düzeyini artırmada çok önemli bir yeri olan yapay zekânın, gelecekte insanlığı tehdit edebileceği konuşuluyor. Özellikle savaş alanlarında otonom robotlar nedeniyle üçüncü aşamaya geçildiğini belirten uzmanlar, olumsuz senaryoların ortaya çıkmasını engellemek ve yapay zekânın insan ve canlı yaşamına katkıda bulunmaya devam etmesi için BM ve İnsan Hakları İzleme Örgütü gibi uluslararası organizasyonlara önemli görevler düştüğüne dikkat çekiyor.

28 Kasım 2017 - 23:43

Üsküdar Üniversitesi Yazılım Mühendisliği Bölüm Başkanı Yrd. Doç. Dr. Türker Tekin Ergüzel, günümüzde insanlığın konfor düzeyini arttıran alanlarda, mevcut kaynakların optimizasyonunda, sağlık bilişiminde ve mühendislik çözüm yaklaşımlarında yapay zekânın oldukça yaygın olarak kullanıldığını söyledi.

Temel olarak insan öğrenme ve karar verme mekanizmasını esas alan, daha hızlı işlem yapabilme performansına sahip yazılım tabanlı sistemlerin yapay zekâ sistemleri olarak tanımlanabileceğini belirten Yrd. Doç. Dr. Türker Tekin Ergüzel, “Ancak insan iradesi ile çatışabilecek bir irade geliştirebilecek yapay zekâ sistemlerinin bu gelişimi, yakın zamanda insanlık için tehlike olacak askeri ve silahlı bir ürüne dönüşmesi yapay zekânın yakın zamandaki geleceğinin sorgulanmasını da beraberinde getiriyor” dedi.


Yapay zekânın riskleri için BM’ye çağrı yapıldı

Yrd. Doç. Dr. Türker Tekin Ergüzel, şunları söyledi:

“Nobel ödüllü fizikçi Stephen Hawking’in kontrol edilememesi halinde insanlığın en önemli başarılarından birisi olan yapay zekânın "insan ırkının son başarısı olabilir" uyarısının üzerinden yaklaşık 2 yıl sonra SpaceX kurucusu Elon Musk ile birlikte dünya üzerindeki önemli isimlerin yer aldığı 116 uzman dikkatleri tekrar yapay zekânın muhtemel risklerine dikkat çektiler. Birleşmiş Milletler’e yaptıkları çağrı ile yapay zekâ yöntemleri ile otonom robot ve sistemlerin geliştirilmesi çalışmalarının oldukça tehlikeli boyutlara ulaştığına ve insanlığın geri dönülmez tehlikelerle karşı karşıya kalabileceğine dikkat çektiler.”


Askeri sistemler üçüncü evreye geçti

Barutun bulunması ile geliştirilen askeri silahları takiben nükleer silahların geliştirilmesi ve sonrasında karşımıza çıkan otonom askeri sistemler ile askeri sistemlerin üçüncü evreye geçtiğini belirten Yrd. Doç. Dr. Türker Tekin Ergüzel, “Askeri sistemlerin geliştirilmesinde özellikle ABD, İngiltere, Güney Kore ve İsrail’in öncülük yaptığını görüyoruz. Üretilen kimi makineli tüfekler sürekli olarak çevreyi tarayıp ses ve görüntü algılaması yaparak “gerekli gördüğünde” ateş edebiliyor. Benzer şekilde, İngiltere Kraliyet Kava Kuvvetleri’nin geliştirdiği Taranis, tam otonom silahlı bir IHA’ya sahip. Karar verebilme algoritması ile havadan havaya veya yere füzeler yollayabilen hava aracının 2030 yılında Tornado G4 savaş uçaklarının yerini alması bekleniyor” dedi.


Otonom savaş sistemleri gelecek için büyük tehdit

Otonom savaş sistemlerinin sonraki yıllarda da geliştirilerek sınır bölgelerinde veya askeri operasyonlarda insan faktörünün devreden çıkartarak kullanılacak olmasının beraberinde oldukça büyük riskleri de beraberinde getireceğine dikkat çeken Yrd. Doç. Dr. Türker Tekin Ergüzel, şu değerlendirmelerde bulundu:

“Otonom sistemlere yüklü yazılımların hacklenmesi, otonom silahların terör örgütlerinin ellerine geçmesi ve otonom silahların sonraki adımda kendi karar verme süreçlerine geçmesi ve insan kontrolünden çıkması önümüzdeki yüzyılda oldukça muhtemel riskler olarak karşımıza çıkabilir. Ülkelerarası savaşların, otonom savunma sistemlerinin devreye girmesi ile daha yaygınlaşabileceği ve hâlihazırda ülkeler arası siyaset ile sürdürülmeye çalışılan istişare ve uzlaşma süreçleri için kullanılan hareket alanı daha da daralacaktır. Benzer şekilde, sistem hatası veya kısıtlı insan müdahalesi gibi kısıtlar sebebiyle sorunların çözümünde askeri savaş hukuku ve askeri politikalar açısından sorumluluğun kimde olduğuna ilişkin soruları da beraberinde getirecektir. Adaptif karar verebilen, iradesi olan, kararlarında duygusal zekâdan istifade eden bir mekanizma yerine anlık sonuç ve güç odaklı bir yaklaşım yeryüzündeki canlı yaşamını tehlikeye atacaktır.”


Uluslararası düzeyde önlem alınmalı

Yrd. Doç. Dr. Türker Tekin Ergüzel, muhtemel olumsuz senaryoların ortaya çıkmasını engellemek ve yapay zekânın insan ve canlı yaşamına katkıda bulunmaya devam etmesini sağlamak, hastalıkların, savaşların ve fakirliğin sona erdirilmesini sağlamak adına BM, İnsan Hakları İzleme Örgütü gibi uluslararası organizasyonlara önemli görevler düştüğünü söyledi. Yrd. Doç. Dr. Türker Tekin Ergüzel, otonom silahların doğrudan yasaklanması ya da silahlanma kontrolü kapsamına alınmasını olası görmemekle birlikte otonom silah sistemleri için öncelikle kesin bir tanım yapılması gerektiğini vurguladı. Sonraki aşamada ise bu sistemlerin yazılım geliştirilme süreçlerinde; robotlar için askeri görev tanımlama ve tanımlanmış görevlerin sınırlarının belirlenmesi sürecinin BM bünyesinde oluşturulacak uluslararası konsorsiyumca tanımlanması gerektiğine dikkat çekti.

YORUMLAR

  • 0 Yorum
Henüz Yorum Eklenmemiştir.İlk yorum yapan siz olun..
İLGİNİZİ ÇEKEBİLİR x