Süper akıllı sistemler, teknolojik yarış nedeniyle dünya çapında yaratılmakta ve yaygınlaştırılmaktadır. Bu nedenle bazı sorular ortaya çıkıyor: mümkün mü? kontrol yapay zeka ne kadar uzak? savaşmaya ne kadar hazırız? AI insan kapasitesinin ötesinde çalışan? Sonuçları ve etkileri henüz ölçülemeyen bir program oluşturmak ne kadar etiktir? Şimdi bilim adamları tarafından sorulan bu sorular hakkında daha fazla bilgi görün.
Devamını oku: 7 yapay zeka uygulaması: bazıları şimdiden insan emeğinin yerini alıyor
daha fazla gör
Uyarı: BU zehirli bitki genç bir adamı hastaneye kaldırdı
Google, gazetecilere yardımcı olmak için yapay zeka aracı geliştiriyor…
Süper zeka ile yapay zeka
Kulağa bir bilim kurgu filmi konusu gibi geliyor, ancak gerçek şu ki, yapay bir zeka gerçekten de daha sonra insanlara karşı dönebilecek komutları öğrenmek için özerklik yaratabilir. Örneğin “insanlığa zarar verme” gibi kurallara uyacaklarının garantisi yoktur, çünkü özerkliğe sahip olacak şekilde programlanacaklarını ve tarafından dayatılan sınırları aşabileceklerini programcılar.
Alan Turing durma sorunu
Durma sorunu olarak adlandırılan bu sorun, bilgisayara verilen bir komut için iki alternatif sunar: bir sonuca varın ve ya durarak yanıt verin ya da bir çözüm bulmaya çalışan bir döngüde devam edecek - ta ki onu bul. Bu nedenle yapay zekanın durup durmayacağını veya olası tüm sonuçları bulup hafızasında mı saklayacağını bilmek mümkün değil.
Bununla ilgili sorun, bir süre sonra makinenin belirli bir sorun için hangi çözümü veya alternatifi kullanacağını ölçmek mümkün olmamasıdır. Bu şekilde, davranışı tahmin edilemez olacak ve bir sınırlama algoritması oluşturmak anlamsız olacaktır.
Bilim adamlarının görüşleri arasındaki farklılıklar
Bazı bilim adamları, teknolojideki tüm ilerlemelerin ortak yararı güvenli ve kontrollü bir şekilde desteklemek için tasarlanması gerektiğini savunuyor. Bu şekilde, her türden istihbaratı depolayabilen, etkisiz tutma güçleri ve hâlâ ölçülmemiş bir imha kapasitesi olan bir süper makine, tehlikeli bir şey gibi görünüyor.
Bunu göz önünde bulunduran bilgi işlem araştırmacıları, süper zeki makinelerin yararlarından daha ağır basan zararları olabileceğini ve bunların yapımından kaçınılması gerektiğini iddia ediyor. Birçok programcı, makinelerinin asla yapamayacakları şeyleri yapmayı öğrendiği gerçeğiyle sürekli olarak uğraşır. öğrenmeleri için öğretilen veya yaratılan komutlar - ve bu, öğrendiklerine bağlı olarak, bir risk.
etik konular
Süper zeka yeteneklerinin sınırlandırılması geçerli bir alternatif olabilir. Bunu yapmak için internetin bazı bölümlerinden veya belirli ağlardan kesmek mümkündür. Bunlar çevreleme mekanizmalarının örnekleri olacaktır. Ancak, bu alternatiflerin geçerli olup olmadığı veya makinenin bu içeriklere henüz açıklanmayan bir şekilde erişip erişemeyeceği henüz bilinmiyor.
Dolayısıyla insanlık yapay zeka ile ilerlemeye devam ediyorsa ne ölçüde otonom olması gerektiğine çok dikkat etmek gerekiyor.