-ის დამფუძნებელი შმიდტის ფიუჩერსი განაცხადა, რომ ხუთ წლამდე ადამიანებს ექნებათ ერთგვარი "ჩემი მიხედვით" შექმნილია მიერ ხელოვნური ინტელექტი და ვინ იქნება თქვენი წარმომადგენელი გარკვეულ ვითარებაში. ამ თვალსაზრისით, თუ გსურთ უკეთ გაიგოთ, რა არის ეს ხელოვნური ინტელექტი, რომელიც თქვენი წარმომადგენელი იქნება, უბრალოდ განაგრძეთ ამ სტატიის კითხვა.
Წაიკითხე მეტი: Deep web შეიცავს გასაყიდი მილიონობით ბრაზილიელის მონაცემებს
მეტის ნახვა
8 ნიშანი, რომელიც აჩვენებს, რომ შფოთვა იყო თქვენს…
სამსახურში ChatGPT-ით ჩანაცვლებული ქალი სამ თვეს ხარჯავს…
გაიგეთ რა არის ხელოვნური ინტელექტის „მეორე მე“.
ბიზნესმენის თქმით, იდეა იმაში მდგომარეობს, რომ თითოეულ მათგანს ჰქონდეს სისტემა, რომელიც მხარდაჭერის როლს ასრულებს სხვადასხვა აქტივობებში. ზოგიერთი მათგანი მოიცავს ერთობლივი აქტივობების შესრულებას, სხვადასხვა თემაზე საუბარს, ასევე თქვენს წარმოდგენას ზოგიერთ სიტუაციაში, სადაც გარკვეული შეზღუდვები გაქვთ.
გარდა ამისა, ერიკ შმიდტის მიერ ნახსენები კიდევ ერთი მოწყობილობა არის ის, რომ ხელოვნურ ინტელექტს ასევე ექნება ძლიერი რჩევის მიცემის სისტემა. ამიტომ, თუ ეჭვი გეპარებათ გარკვეული ადამიანი კარგია თუ ცუდი, საშიშია თუ არა ადგილი იმ დროს ან რა გზით უნდა იმოგზაუროთ, შეგიძლიათ ჰკითხოთ თქვენს „მეორე მეს“.
აქვს AI-ს საკუთარი პიროვნება?
მიუხედავად იმისა, რომ ზოგიერთმა შეიძლება იფიქროს, რომ AI-ებს აქვთ საკუთარი პიროვნება და არიან 100% ავტონომიური, ეს ასე არ არის. რაც სინამდვილეში ხდება არის ის, რომ Google-ის LaMDA იმდენად ინტენსიურია, რომ გჯერათ, რომ ესაუბრებით ადამიანს, რომელსაც აქვს რეალური ცოდნა. ის სასარგებლოა, მაგრამ უგონო მდგომარეობაში.
ხელოვნური ინტელექტი არის სისტემა, რომელიც მუდმივად სწავლობს, როგორც შმიდტმა განაცხადა კონფერენციაზე. მაგრამ ჩვენ არ შეგვიძლია გვერდში დგომა, სანამ ინოვაციები ცვლის ჩვენს ცხოვრებას. ბავშვის საუკეთესო მეგობარი მანქანა არ შეიძლება იყოს. ამიტომ, მიუხედავად იმისა, რომ ის შეიძლება იყოს ძალიან სასარგებლო და ფუნქციონალური სხვადასხვა საქმიანობისთვის, სიმართლე ის არის, რომ AI არ არის და არ უნდა იყოს ადამიანის თანაბარი.
და ბოლოს, მან ხაზი გაუსვა, რომ ადამიანებს არ შეუძლიათ მანქანებს გადაწყვიტონ, ჩაერთონ თუ არა ბრძოლაში, რადგან ეს საშიშია. ყოველივე ამის შემდეგ, ყოველთვის უნდა იყოს გათვალისწინებული რამდენიმე სხვა ასპექტი, რომლებიც არ არის გამოთვლილი და გაანალიზებული რობოტების მიერ.