Bilim kurgu romanı "2001: A Space Odyssey" ve ondan uyarlanan klasik film "2001: A Space Odyssey", yapay zekanın bir insan yardımcısından bir insan yok ediciye dönüşümünün hikayesini anlatıyor. Kendi oluşturduğumuz yapay zeka gelecekte insanlığı öldürecek mi? Hawking, bunun kesinlikle telaşlandırıcı olmadığını söyledi.
Şuradan resim: video ekran görüntüsü
Geçtiğimiz günlerde Cambridge Üniversitesi'ndeki Leverhulme Akıllı Gelecek Merkezi'nin açılış töreninde Hawking, sıcak yapay zeka endüstrisine soğuk su döktü.
Hawking konuşmasında, "Tarihi incelemek için çok zaman harcadık," dedi ve "Karşılaştığımız tarih çoğunlukla aptalca. Yani şimdi insanlar zekanın geleceğini inceliyorlar. Bu sevindirici bir değişiklik."
Hawking, yapay zeka araştırmalarının gerçekten de birçok olumlu faktör getirdiğini söyledi ve bu yeni teknoloji sayesinde insanlığın sanayileşmenin doğal dünyaya verdiği zararların bir kısmını ortadan kaldırabileceğine ve nihai amacın kesinlikle hastalıkları ve yoksulluğu ortadan kaldırmak olduğuna inanıyor.
"Bilgelik yaratmanın potansiyel faydaları çok büyük. Zihnimiz AI tarafından geliştirildiğinde neyi başaracağımızı tahmin edemiyoruz."
"Hayatımızın her yönü değişecek. Kısacası, yapay zekanın başarılı bir şekilde yaratılması, medeniyetimizin tarihindeki en önemli şey olabilir."
Resim: Kiplinger
Bununla birlikte, dünyaca ünlü bir fizikçi olarak Hawking, AI konusunda temkinli davranıyor.İnsanların öz farkındalıkla süper zeka yarattıklarında, kendi kendilerini yok etme riskiyle karşı karşıya kalabileceklerine inanıyor, çünkü AI'nın iradesi bizimle çatışabilir.
Kısacası, güçlü yapay zekanın yükselişi insanlık için en iyi veya en kötü şey olabilir. Hala bunu bilmiyoruz. "
Hawking'in bu endişeye sahip olmasının nedeni, ona göre yapay zekanın potansiyelinin sınırsız olması, "biyolojik beyin ve bilgisayarın yeteneği çok farklı değildir".
"Böylece, teorik olarak bilgisayarlar insan zekasını taklit edebilir ve onu aşabilir."
Bu, Hawking'in potansiyel yapay zeka tehdidi konusunda uyardığı ilk sefer değil. Geçen yılın başında Hawking, bazı AI uzmanlarının yanı sıra Musk ve Watts gibi ünlülerle birlikte silahlı AI ve otonom savaş sistemlerinin yasaklanması çağrısında bulunan ortak bir bildiri yayınladı.
Resim: Gralien Raporu
O sırada Hawking, yapay zekanın gerçek riskinin kötü niyetli olmasında değil, yeteneklerinde yattığını açıkladı. Bir örnek verdi: Bir su koruma projesinin başındayken karınca yuvasına su basmak zorunda kaldınız.Karıncalardan nefret eden biri olmamanıza rağmen, amacınızı tamamladığınızda yanlışlıkla karıncaların yok olmasına neden oluyorsunuz.
Bu nedenle, MAX yeteneğine sahip bir süper yapay zeka bir görevi yerine getirirken, amacı insanlarla tutarsızsa, insanlar karıncalarla aynı kötü şansla karşılaşabilir.
Yapay zekanın mevcut gelişimi henüz emekleme döneminde olsa da, Hawking'in yapay zeka tehdidi değerlendirmesi düşüncelerimize değer olabilir:
"Yapay zekanın kısa vadeli etkisi, onu kimin kontrol ettiğine ve uzun vadeli etkisi de kontrol edilip edilemeyeceğine bağlı."
Başlık resmi şuradan geliyor: Silver Ferox