Bilim adamları, süper zeki yapay zekanın kontrol edilemez olacağını söylüyor

Süper akıllı sistemler, teknolojik yarış nedeniyle dünya çapında yaratılmakta ve yaygınlaştırılmaktadır. Bu nedenle bazı sorular ortaya çıkıyor: mümkün mü? kontrol yapay zeka ne kadar uzak? savaşmaya ne kadar hazırız? AI insan kapasitesinin ötesinde çalışan? Sonuçları ve etkileri henüz ölçülemeyen bir program oluşturmak ne kadar etiktir? Şimdi bilim adamları tarafından sorulan bu sorular hakkında daha fazla bilgi görün.

Devamını oku: 7 yapay zeka uygulaması: bazıları şimdiden insan emeğinin yerini alıyor

daha fazla gör

Uyarı: BU zehirli bitki genç bir adamı hastaneye kaldırdı

Google, gazetecilere yardımcı olmak için yapay zeka aracı geliştiriyor…

Süper zeka ile yapay zeka

Kulağa bir bilim kurgu filmi konusu gibi geliyor, ancak gerçek şu ki, yapay bir zeka gerçekten de daha sonra insanlara karşı dönebilecek komutları öğrenmek için özerklik yaratabilir. Örneğin “insanlığa zarar verme” gibi kurallara uyacaklarının garantisi yoktur, çünkü özerkliğe sahip olacak şekilde programlanacaklarını ve tarafından dayatılan sınırları aşabileceklerini programcılar.

Alan Turing durma sorunu

Durma sorunu olarak adlandırılan bu sorun, bilgisayara verilen bir komut için iki alternatif sunar: bir sonuca varın ve ya durarak yanıt verin ya da bir çözüm bulmaya çalışan bir döngüde devam edecek - ta ki onu bul. Bu nedenle yapay zekanın durup durmayacağını veya olası tüm sonuçları bulup hafızasında mı saklayacağını bilmek mümkün değil.

Bununla ilgili sorun, bir süre sonra makinenin belirli bir sorun için hangi çözümü veya alternatifi kullanacağını ölçmek mümkün olmamasıdır. Bu şekilde, davranışı tahmin edilemez olacak ve bir sınırlama algoritması oluşturmak anlamsız olacaktır.

Bilim adamlarının görüşleri arasındaki farklılıklar

Bazı bilim adamları, teknolojideki tüm ilerlemelerin ortak yararı güvenli ve kontrollü bir şekilde desteklemek için tasarlanması gerektiğini savunuyor. Bu şekilde, her türden istihbaratı depolayabilen, etkisiz tutma güçleri ve hâlâ ölçülmemiş bir imha kapasitesi olan bir süper makine, tehlikeli bir şey gibi görünüyor.

Bunu göz önünde bulunduran bilgi işlem araştırmacıları, süper zeki makinelerin yararlarından daha ağır basan zararları olabileceğini ve bunların yapımından kaçınılması gerektiğini iddia ediyor. Birçok programcı, makinelerinin asla yapamayacakları şeyleri yapmayı öğrendiği gerçeğiyle sürekli olarak uğraşır. öğrenmeleri için öğretilen veya yaratılan komutlar - ve bu, öğrendiklerine bağlı olarak, bir risk.

etik konular

Süper zeka yeteneklerinin sınırlandırılması geçerli bir alternatif olabilir. Bunu yapmak için internetin bazı bölümlerinden veya belirli ağlardan kesmek mümkündür. Bunlar çevreleme mekanizmalarının örnekleri olacaktır. Ancak, bu alternatiflerin geçerli olup olmadığı veya makinenin bu içeriklere henüz açıklanmayan bir şekilde erişip erişemeyeceği henüz bilinmiyor.

Dolayısıyla insanlık yapay zeka ile ilerlemeye devam ediyorsa ne ölçüde otonom olması gerektiğine çok dikkat etmek gerekiyor.

Neolitik Dönem: başlangıç, özellikler, özet

Neolitik Dönem: başlangıç, özellikler, özet

Ö neolitik dönem aşamalarından birini içerir. tarih öncesi, a. 7 bin yılları arasında. Ç. 2500'e ...

read more

Fenikeliler. Fenike Uygarlığı

Fenikeliler, bugün Lübnan'ın bulunduğu Filistin'in kuzey kesiminde bulunuyorlardı. Bu uygarlığın ...

read more
Lahey Mahkemesi: amaç, ortaya çıkış ve eylem

Lahey Mahkemesi: amaç, ortaya çıkış ve eylem

Ö Lahey Mahkemesi 1998 yılında imzalanan ve resmi olarak yürürlüğe giren Roma Statüsü ile oluştur...

read more