Blog
Veri analizi, veri işleme, büyük veri, yapay zeka ve benzeri konular için kaynak niteliğinde olan yazılar

Yapay Zeka ile ilgili Varoluşsal Risk nedir? Gerçek midir? Y-07

Önceleri Yapay Zeka ile ilgili riskler belirsizdi. Alan Turing, 1951 yılında yayınlanan radyo söyleşisinde süper akıllı Yapay Zeka ile ilgili bazı riskleri belirtmenin gerekli olduğunu düşündü: “Bir makine düşünebiliyorsa, bizden daha akıllıca da düşünebilir, bu durumda biz nerede olmalıyız? Makineleri sadece hizmet eden bir pozisyonda tutabilsek bile - örneğin stratejik anlarda makinelerin gücünü keserek durdurmak gibi- bir tür olarak, kendimizi alçakgönüllü (aşağılanmış?) hissetmeliyiz. Bu yeni tehlike, kesinlikle endişe vericidir. I. J. Good, bir zekâ patlamasının faydalarını öngörmek için “Makineler, kendilerini nasıl kontrol altında tutacağımızı söyleyecek kadar uysal olmalıdır” şartını eklemektedir. Gezegenimizde süper akıllı varlıkların bulunmasının endişe kaynağı olabileceği hakkında genel bir algı vardır zaten; öte yandan, daha akıllı makinelerin genellikle daha kullanışlı olduğunu da görüyoruz, bu yüzden onları daha akıllı yapmanın daha kötü durumlara sebep olacağı da kesin değildir. Aslında, tartışma oldukça basit:

  1. Süper akıllı bir sistemin, insan tasarımcısı tarafından belirli bir hedefe ulaşmak için tasarlandığını ve amacının insan ırkının değerleri ile tam olarak uyumlu olmadığını, (en iyi ihtimalle) ya da bu durumu tespit etmenin çok zor olduğunu varsayalım.
  2. Yeterince yetenekli herhangi bir akıllı sistem – kendi iyiliği için değil, görevini yerine getirmek için - kendi varlığının devam etmesini sağlamak için tüm fiziksel ve hesaplamalı kaynakları elde etmeyi tercih edecektir.

Yapay Zeka, varoluşsal risk

Image by Tumisu from Pixabay

İşte şimdi bir sorunumuz var. Bu aslında lambadaki cinlerin, büyücünün çırağının ya da Kral Midas'ın eski bir hikayesidir: Tam olarak talep ettiğini elde ediyorsun, istediğini değil. 1960 yılında, otomasyon ve kontrol teorisinin öncüsü olan Norbert Wiener, “Amacımıza ulaşmak için, çalışmasını istediğimiz gibi etkili bir şekilde engelleyemediğimiz mekanik bir araç kullanıyorsak, makinenin içine yerleştirilen amacın, gerçekten arzuladığımız amaç olduğundan kesin olarak emin olmamız gerekir” demiştir. Marvin Minsky, bir makineden, olabildiğince en fazla haneden oluşacak bir pi sayısı hesaplamasını isteme örneğini vermiştir; Nick Bostrom, çok sayıda ataç isteme örneğini vermiştir. Bir insana buna benzer hedefler verildiğinde, bunları genel olarak insan amaçlarının geçmişteki deneyimlerine göre yorumlayacaktır, bu da tüm dünyayı hesaplama sunucuları (Compute Servers) veya ataçlarla kaplamanın iyi bir çözüm olmadığı anlamına gelecektir.  Özellikle İnternet üzerinden tüm dünyadaki bilgilere ve milyarlarca ekrana ve altyapımızın çoğuna ulaşabilen akıllı bir makine (intelligent machine) insanlık üzerinde geri dönüşü olmayan bir etkiye sahip olabilir. Neyse ki, sorunun doğası şimdi biraz daha net olduğundan, çözümler üzerinde çalışmaya başlamak mümkündür.

Yanlış Bilinenler:

! Süper akıllı makineler kendiliğinden bilinçlenecek veya tabiatı gereği kötü olacak ve insanlardan nefret edecek: Bilim kurgu yazarları, makineler ve insanlar arasında karşıtlık oluşturmak için genellikle bunlardan bir veya daha fazlasını kullanma eğilimindedir. Bu tür varsayımlar gereksiz ve nedensizdir.

! Yapay zeka sistemlerini insanlar geliştiriyor, peki neden kendimizi yok ediyoruz?: Bazı Yapay Zeka “savunucuları”, insanların Yapay Zeka sistemlerini kurduklarına göre, görevi insan ırkını yok etmek olan bir sistemi de inşa edeceğimizi varsaymamız için geçerli hiçbir neden olmadığını savunmaktadır. Tartışmanın bakış açısındaki eksikler, tasarımcıdaki veya makinedeki kasıtlı kötü niyetli bölümlerin varoluşsal bir tehdidin varlığı için bir ön koşul olmadığıdır; sorun, hedeflerin yanlış tanımlanmasından kaynaklanmaktadır.

! Bunlar asla olmayacak: Bunun için Makine IQ Nedir? adlı yazının, Yapay Zeka sistemleri ne zaman insanlardan daha akıllı olacak? Bölümünü okuyabilirsiniz.

 

Kaynak: http://people.eecs.berkeley.edu/~russell/temp/q-and-a.html