მეცნიერები ამბობენ, რომ სუპერ ინტელექტუალური ხელოვნური ინტელექტი უკონტროლო იქნება

protection click fraud

სუპერინტელექტუალური სისტემები უკვე იქმნება და ვრცელდება მთელ მსოფლიოში ტექნოლოგიური რასის გამო. ამ მიზეზით ჩნდება კითხვები: შესაძლებელია თუ არა ხელოვნური ინტელექტის კონტროლი რამდენად შორს? რამდენად მზად ვართ საბრძოლველად ა AI რომელიც მუშაობს ადამიანური შესაძლებლობების მიღმა? რამდენად ეთიკურია ისეთი პროგრამის შექმნა, რომლის შედეგებისა და ზემოქმედების შეფასება ჯერ კიდევ შეუძლებელია? იხილეთ ახლა მეტი ინფორმაცია მეცნიერების მიერ დასმული ამ კითხვების შესახებ.

Წაიკითხე მეტი: ხელოვნური ინტელექტის 7 აპლიკაცია: ზოგიერთი უკვე ცვლის ადამიანის შრომას

მეტის ნახვა

გაფრთხილება: ამ შხამიანმა მცენარემ ახალგაზრდა მამაკაცი საავადმყოფოში გადაიყვანა

Google ავითარებს ხელოვნური ინტელექტის ინსტრუმენტს, რათა დაეხმაროს ჟურნალისტებს…

ხელოვნური ინტელექტი სუპერინტელექტით

ეს ჟღერს როგორც სამეცნიერო ფანტასტიური ფილმის შეთქმულება, მაგრამ სიმართლე ისაა, რომ ხელოვნურ ინტელექტს ნამდვილად შეუძლია შექმნას ავტონომია იმ ბრძანებების შესასწავლად, რომლებიც მოგვიანებით შეიძლება აღმოჩნდეს ადამიანების წინააღმდეგ. მაგალითად, გარანტირებული არ არის, რომ ისინი დაიცავენ ისეთ წესებს, როგორიცაა „არ მიაყენო ზიანი კაცობრიობას“, რადგან რომ ისინი დაპროგრამებულნი იქნებიან, რომ ჰქონდეთ ავტონომია და შეძლებენ გვერდის ავლით დაწესებულ საზღვრებს პროგრამისტები.

instagram story viewer

ალან ტურინგის შეჩერების პრობლემა

"შეჩერების პრობლემას" უწოდებენ, ეს პრობლემა იძლევა ორ ალტერნატივას კომპიუტერისთვის მიცემული ბრძანებისთვის: ან იქნება მივიდეთ დასკვნამდე და ან უპასუხეთ მას შეჩერებით, ან გააგრძელებს ციკლის მცდელობას გამოსავლის პოვნამდე - სანამ იპოვე იგი. ამ მიზეზით, შეუძლებელია იმის ცოდნა, შეჩერდება თუ არა ხელოვნური ინტელექტი, იპოვის და შეინახავს ყველა შესაძლო დასკვნას თავის მეხსიერებაში.

ამის პრობლემა ის არის, რომ შეუძლებელია გარკვეული დროის შემდეგ გაზომვა, რომელი გამოსავალი ან ალტერნატივა მიიღებს მანქანა მოცემულ პრობლემას. ამრიგად, მისი ქცევა არაპროგნოზირებადი იქნება და უაზრო იქნება შეკავების ალგორითმის შექმნა.

მეცნიერთა მოსაზრებებს შორის განსხვავებები

ზოგიერთი მეცნიერი ამტკიცებს, რომ ტექნოლოგიის ყველა მიღწევა უნდა იყოს შექმნილი იმისათვის, რომ ხელი შეუწყოს საერთო სიკეთეს უსაფრთხო და კონტროლირებადი გზით. ამგვარად, სუპერმანქანა, რომელსაც შეუძლია შეინახოს ნებისმიერი და ყველა სახის დაზვერვა, არაეფექტური შეკავების ძალით და ჯერ კიდევ განუზომელი განადგურების უნარით, რაღაც საშიშად გამოიყურება.

ამის გათვალისწინებით, გამოთვლითი მკვლევარები ამტკიცებენ, რომ სუპერინტელექტუალურ მანქანებს შეიძლება ჰქონდეთ ზიანი, რომელიც აღემატება სარგებელს და მათი მშენებლობა თავიდან უნდა იქნას აცილებული. ბევრი პროგრამისტი გამუდმებით ეხება იმ ფაქტს, რომ მათმა მანქანებმა ისწავლეს ისეთი რამის გაკეთება, რისი გაკეთებაც ვერასოდეს შეძლეს. ასწავლეს ან შექმნეს ბრძანებები მათთვის, რომ ისწავლონ - და ეს, იმისდა მიხედვით, თუ რას სწავლობენ, შეიძლება სიმბოლო იყოს ა რისკი.

ეთიკური საკითხები

სუპერდაზვერვის შესაძლებლობების შეზღუდვა შეიძლება იყოს სიცოცხლისუნარიანი ალტერნატივა. ამისათვის შესაძლებელია მისი გათიშვა ინტერნეტის ნაწილებიდან ან გარკვეული ქსელებიდან. ეს იქნება შეკავების მექანიზმების მაგალითები. თუმცა, ჯერ არ არის ცნობილი, არის თუ არა ეს ალტერნატივები სიცოცხლისუნარიანი - ან ექნება თუ არა მანქანას წვდომა ამ შინაარსზე ისე, რომ ჯერ არ არის გამოვლენილი.

ამიტომ, თუ კაცობრიობა განაგრძობს წინსვლას ხელოვნური ინტელექტის გამოყენებით, აუცილებელია ვიყოთ ძალიან ფრთხილად, რამდენად უნდა იყოს ის ავტონომიური.

Teachs.ru

ბუნებრივი და ხელოვნური რადიოაქტიურობა

არსებობს ბუნებრივი და ხელოვნური რადიოაქტივობა, ეს უკვე იცით? თუ არა, ახლა მნიშვნელოვანია იცოდეთ, ...

read more

მდინარეების კლასიფიკაცია. მდინარეების კლასიფიკაციის ცოდნა

მდინარეები ბუნებრივი წყალსატევებია, რომლებიც მოძრაობენ უფრო მაღალი წერტილიდან (წყარო) მანამ, სანა...

read more

რა არის დედამიწის ხანა? დედამიწის დრო და ასაკი

დედამიწის გეოლოგიის წარსულის შემსწავლელი მეცნიერების უმეტესობის აზრით, ჩვენი პლანეტა დაახლოებით 4...

read more
instagram viewer