მეცნიერები ამბობენ, რომ სუპერ ინტელექტუალური ხელოვნური ინტელექტი უკონტროლო იქნება

სუპერინტელექტუალური სისტემები უკვე იქმნება და ვრცელდება მთელ მსოფლიოში ტექნოლოგიური რასის გამო. ამ მიზეზით ჩნდება კითხვები: შესაძლებელია თუ არა ხელოვნური ინტელექტის კონტროლი რამდენად შორს? რამდენად მზად ვართ საბრძოლველად ა AI რომელიც მუშაობს ადამიანური შესაძლებლობების მიღმა? რამდენად ეთიკურია ისეთი პროგრამის შექმნა, რომლის შედეგებისა და ზემოქმედების შეფასება ჯერ კიდევ შეუძლებელია? იხილეთ ახლა მეტი ინფორმაცია მეცნიერების მიერ დასმული ამ კითხვების შესახებ.

Წაიკითხე მეტი: ხელოვნური ინტელექტის 7 აპლიკაცია: ზოგიერთი უკვე ცვლის ადამიანის შრომას

მეტის ნახვა

გაფრთხილება: ამ შხამიანმა მცენარემ ახალგაზრდა მამაკაცი საავადმყოფოში გადაიყვანა

Google ავითარებს ხელოვნური ინტელექტის ინსტრუმენტს, რათა დაეხმაროს ჟურნალისტებს…

ხელოვნური ინტელექტი სუპერინტელექტით

ეს ჟღერს როგორც სამეცნიერო ფანტასტიური ფილმის შეთქმულება, მაგრამ სიმართლე ისაა, რომ ხელოვნურ ინტელექტს ნამდვილად შეუძლია შექმნას ავტონომია იმ ბრძანებების შესასწავლად, რომლებიც მოგვიანებით შეიძლება აღმოჩნდეს ადამიანების წინააღმდეგ. მაგალითად, გარანტირებული არ არის, რომ ისინი დაიცავენ ისეთ წესებს, როგორიცაა „არ მიაყენო ზიანი კაცობრიობას“, რადგან რომ ისინი დაპროგრამებულნი იქნებიან, რომ ჰქონდეთ ავტონომია და შეძლებენ გვერდის ავლით დაწესებულ საზღვრებს პროგრამისტები.

ალან ტურინგის შეჩერების პრობლემა

"შეჩერების პრობლემას" უწოდებენ, ეს პრობლემა იძლევა ორ ალტერნატივას კომპიუტერისთვის მიცემული ბრძანებისთვის: ან იქნება მივიდეთ დასკვნამდე და ან უპასუხეთ მას შეჩერებით, ან გააგრძელებს ციკლის მცდელობას გამოსავლის პოვნამდე - სანამ იპოვე იგი. ამ მიზეზით, შეუძლებელია იმის ცოდნა, შეჩერდება თუ არა ხელოვნური ინტელექტი, იპოვის და შეინახავს ყველა შესაძლო დასკვნას თავის მეხსიერებაში.

ამის პრობლემა ის არის, რომ შეუძლებელია გარკვეული დროის შემდეგ გაზომვა, რომელი გამოსავალი ან ალტერნატივა მიიღებს მანქანა მოცემულ პრობლემას. ამრიგად, მისი ქცევა არაპროგნოზირებადი იქნება და უაზრო იქნება შეკავების ალგორითმის შექმნა.

მეცნიერთა მოსაზრებებს შორის განსხვავებები

ზოგიერთი მეცნიერი ამტკიცებს, რომ ტექნოლოგიის ყველა მიღწევა უნდა იყოს შექმნილი იმისათვის, რომ ხელი შეუწყოს საერთო სიკეთეს უსაფრთხო და კონტროლირებადი გზით. ამგვარად, სუპერმანქანა, რომელსაც შეუძლია შეინახოს ნებისმიერი და ყველა სახის დაზვერვა, არაეფექტური შეკავების ძალით და ჯერ კიდევ განუზომელი განადგურების უნარით, რაღაც საშიშად გამოიყურება.

ამის გათვალისწინებით, გამოთვლითი მკვლევარები ამტკიცებენ, რომ სუპერინტელექტუალურ მანქანებს შეიძლება ჰქონდეთ ზიანი, რომელიც აღემატება სარგებელს და მათი მშენებლობა თავიდან უნდა იქნას აცილებული. ბევრი პროგრამისტი გამუდმებით ეხება იმ ფაქტს, რომ მათმა მანქანებმა ისწავლეს ისეთი რამის გაკეთება, რისი გაკეთებაც ვერასოდეს შეძლეს. ასწავლეს ან შექმნეს ბრძანებები მათთვის, რომ ისწავლონ - და ეს, იმისდა მიხედვით, თუ რას სწავლობენ, შეიძლება სიმბოლო იყოს ა რისკი.

ეთიკური საკითხები

სუპერდაზვერვის შესაძლებლობების შეზღუდვა შეიძლება იყოს სიცოცხლისუნარიანი ალტერნატივა. ამისათვის შესაძლებელია მისი გათიშვა ინტერნეტის ნაწილებიდან ან გარკვეული ქსელებიდან. ეს იქნება შეკავების მექანიზმების მაგალითები. თუმცა, ჯერ არ არის ცნობილი, არის თუ არა ეს ალტერნატივები სიცოცხლისუნარიანი - ან ექნება თუ არა მანქანას წვდომა ამ შინაარსზე ისე, რომ ჯერ არ არის გამოვლენილი.

ამიტომ, თუ კაცობრიობა განაგრძობს წინსვლას ხელოვნური ინტელექტის გამოყენებით, აუცილებელია ვიყოთ ძალიან ფრთხილად, რამდენად უნდა იყოს ის ავტონომიური.

Educa+ გათამაშებას ექნება პრიზები $500,000-მდე

სათაური საშუალებას აძლევს ოჯახებს შექმნან რესურსების რეზერვი შვილების სწავლის დასაფინანსებლად, Ed...

read more
შემაშფოთებელია! რატომ წყვეტს ამდენი აპლიკაციის მძღოლი მგზავრობას?

შემაშფოთებელია! რატომ წყვეტს ამდენი აპლიკაციის მძღოლი მგზავრობას?

აპის დრაივერებმა იპოვეს ა რასის უარყოფის ახალი მეთოდი. ბოლო დროს მგზავრებმა შეამჩნიეს, რომ გაუქმე...

read more
მე მომწონს ტექნოლოგია! Coca-Cola უშვებს ხელოვნური ინტელექტის მიერ წარმოქმნილ ახალ არომატს; შეხედე

მე მომწონს ტექნოლოგია! Coca-Cola უშვებს ხელოვნური ინტელექტის მიერ წარმოქმნილ ახალ არომატს; შეხედე

ისევ ინოვაციებისა და ბაზარზე ახალი ნივთების გამოტანის მიზნით, Coca-Cola-მ გადაწყვიტა თავისი სასმე...

read more