Oxford Üniversitesi’nde İnsanlığın Geleceği Enstitüsü’nde çalışan Anders Sandberg’in The Conversation ve Popular Science‘da yayınlanan “İnsan Varoluşunu Tehdit Eden En Büyük Beş Tehdit” isimli makaleyi başlık başlık ele almaya devam ediyoruz. Bu defa “Süper Zeka”yı irdeleyeceğiz ve insanlık için insanların ne kadar tehdit olabildiği üzerinde duracağız.
Zeka çok güçlüdür. Problem çözme becerisi ve grup koordinasyonundaki ufak bir artış bizi diğer canlılardan ayıran nedendir. Şimdi, diğer canlıların varlıklarını sürdürebilmesi onların yaptıklarına değil insanların verdiği kararlara bağlıdır. Akıllı olmak insanlar ve organizasyonlar için gerçekten bir avantajdır ve bireysel ve kollektif zekamızı iyileştirmenin yollarını bulmak için oldukça çabalıyoruz. Bunun için biliş artırıcı ilaçlardan tutun da yapay zeka yazılımlarına kadar pek çok şeyi denedik ve denemeye devam ediyoruz.
Problem ise akıllı varlıklar olarak bu hedeflere ulaşmamızda iyi olmamızdır. Çünkü eğer hedeflerimiz kötü amaçlı ise bir felakete yol açabiliriz. Zekanın kendisinin güzel ve zararsız bir şeyler yapmayı düşünmek için nedeni yoktur aslında. Gerçekte, zekanın kendisi süper zeka sistemlerin belirli türlerinin ahlaki kurallar doğru bile olsa bu kuralları tanımadığını/itaat etmediğini kanıtlaması mümkündür.
Daha endişe verici olanı bir yapay zekaya bir şeylerin açıklamasını yapmayı denememizin derin pratik ve felsefi problemler içinde olmasıdır. İnsani değerler dağınık, karmaşık şeylerdir ve bizim bunları ifade edişimiz iyi değildir ve hatta yapmak istediğimizin tüm etkilerini bile akıllı varlıklar olarak anlayamazken yapay zekanın bunun kavramasını beklemek bir hayli zor olacaktır.
Yazılım temelli zeka insan zekasından çok hızlı olabilir. Bunun nedeni biyolojik zekadan farklı şekillerdeki ölçeklerdir: yazılım temelli zeka daha hızlı bilgisayarlarda daha hızlı çalışabilir, parçaları daha fazla bilgisayara dağıtılabilir, farklı versiyonları test edilebilir ve anında güncelleme yapılabilir, yeni algoritmalarla performansında iyileştirmeler görülebilir.
Yazılımlar daha iyi bir yazılım yapmak için yeterince iyi olduklarında “zeka patlamasının” mümkün olabileceği öne sürülmektedir. Böyle bir şey yaşanırsa akıllı sistem ve Dünya’nın geri kalanı arasında potansiyel olarak büyük bir güç farklılığı olacaktır. Bu durum, açıkça, amaçlar kötü niyetli olursa bir felaket için net bir potansiyelin olduğunu ortaya koymaktadır..
Süper zeka hakkında alışılmadık bir şey ise eğer hızlı ve güçlü zeka patlamaları mümkün olursa ne olacağını bilmiyor oluşumuzdur: belki bizim bugün ki medeniyetimiz tümüyle mümkün olan en hızlı oranda kendini geliştirebilir. Fakat bazı teknolojilerin bugün ki toplumların ele alabildiğinden bunu çok daha hızlandıracağını düşünmek için iyi nedenler var. Benzer olarak biz süper zekanın farklı formlarının ne kadar tehlikeli olabileceğini de henüz kavrayabilecek durumda değiliz. Bu risklerin büyük bir kısmı ya da bazısı ya büyük bir hayal ürünüdür ya da etkili bir yıkımdır.
Bu konu şaşırtıcı bir şekilde bir araştırma alanı olarak incelenmiştir. 50’li 60’lı yıllarda bile insanlar süper zekayı “bir nesil içinde” elde edilebileceğinden emin oldukları zaman, yine de onlar güvenlik sorunlarını incelemediler. Belki de tahminleri ciddiye almadılar ama daha büyük olasılıkla onlar süper zekanın olası etkilerini uzak bir geleceğin sorunu olarak gördüler.
İnsanlığı tehdit eden felaketler isimli yazı dizimizin sonraki (dördüncü) yazısı “Nanoteknoloji” konusunu ele alacak.
Gökhan Atmaca, MSc. twitter.com/kuarkatmaca | facebook.com/anadoluca
Kaynak:
Anders Sandberg,The Five Biggest Threats to Human Existence , Popular Science, May 2014
Image: shiborisan, CC BY-NC-ND