ევროპარლამენტის სპეციალურმა კომიტეტმა ცოტა ხნის წინ დაამტკიცა კანონპროექტის საწყისი ვერსია, რომელიც მიზნად ისახავს მიზნად ისახავს კონტინენტზე ხელოვნური ინტელექტის სისტემების განვითარებისა და გამოყენების სახელმძღვანელო მითითებების დადგენას ევროპული.
ამ წინასწარი ფაზის დამტკიცება წარმოადგენს მნიშვნელოვან წინგადადგმულ ნაბიჯს იმ რეგულაციების განსახორციელებლად, რომლებიც შექმნილია ხელოვნური ინტელექტის ტექნოლოგიების სწრაფი წინსვლის კონტროლისთვის. ეს კანონები აუცილებელია ამ ტექნოლოგიების სწრაფი ევოლუციის გამო.
მეტის ნახვა
Netflix-ის საფრთხე: Google-ის უფასო სერვისი კონკურენციას უწევს სტრიმინგს
Google ავითარებს ხელოვნური ინტელექტის ინსტრუმენტს, რათა დაეხმაროს ჟურნალისტებს…
ახალი კანონმდებლობა, სახელწოდებით „ევროპული ხელოვნური ინტელექტის აქტი“, პირველია დასავლეთში, ისევე როგორც ჩინეთსა და აზიის სხვა ქვეყნებს უკვე აქვთ რეგულაციები, რომლებსაც ამუშავებენ ხელოვნური ინტელექტის მქონე კომპანიები, როგორიცაა OpenAI შენი ChatGPT, უნდა დაიცვას.
ხელოვნური ინტელექტის ევროპული რეგულაცია ატარებს მიდგომას, რომელიც ეფუძნება თითოეული AI სისტემის რისკის პოტენციალს. რაც უფრო დიდია საფრთხე, მით უფრო მკაცრი იქნება მათი კონტროლი.
წესები ასევე განსაზღვრავს სპეციფიკურ მოთხოვნებს, რომლებიც უნდა დაიცვან დეველოპერებმა, რომლებიც ცნობილია როგორც "საძირკვლის მოდელები".
ხელოვნური ინტელექტის რისკის კატეგორიები
ევროპის ხელოვნური ინტელექტის აქტი ასევე ანაწილებს AI-ებს რისკის დონის მიხედვით. ესენია: მინიმალური ან არარისკი, შეზღუდული რისკი, მაღალი რისკი და მიუღებელი რისკი.
მაღალი რისკის მქონე ხელოვნური ინტელექტიც კი შეიძლება იმუშაოს რეგულირების პირობებში, მაგრამ ინსტრუმენტები, რომლებიც კატეგორიზებულია, როგორც მიუღებელი რისკი, ვერც კი მუშაობს ევროპაში. მიუღებელი რისკის AI-ებია:
- სისტემები, რომლებიც იყენებენ სუბლიმინალურ, მანიპულაციურ ან მატყუარა ტექნიკას საკუთარი ქცევის დამახინჯებისთვის;
- ხელოვნური ინტელექტი, რომელიც იყენებს კონკრეტული ინდივიდების ან ჯგუფების დაუცველობას;
- ბიომეტრიული კატეგორიზაციის სისტემები მგრძნობიარე ატრიბუტებზე ან მახასიათებლებზე დაფუძნებული;
- AI გამოიყენება სოციალური ქულების ან სანდოობის შეფასებისთვის;
- ხელოვნური ინტელექტის სისტემები, რომლებიც გამოიყენება რისკების შეფასებისთვის, რომლებიც წინასწარმეტყველებენ სისხლის სამართლის ან ადმინისტრაციულ სამართალდარღვევებს;
- სისტემები, რომლებიც ქმნიან ან აფართოებენ სახის ამოცნობის მონაცემთა ბაზებს არამიზნობრივი სკრაპით;
- მექანიზმები, რომლებიც ასახავს ემოციებს სამართალდამცავ ორგანოებში, საზღვრის მართვაში, სამუშაო ადგილზე და განათლებაში.
მავნე ხელოვნური ინტელექტის გავრცელების თავიდან ასაცილებლად, როგორიცაა მაღალი რისკი და მიუღებელი რისკი, ახალი ევროპული კანონი ხელოვნური ინტელექტის შესახებ აიძულებს დეველოპერებს დაიცვან სტანდარტები წინასწარ განსაზღვრული.
ამ მონაცემთა ბაზის ერთ-ერთი ასპექტია ხელოვნური ინტელექტის წინასწარი ტესტირება, რომელიც უნდა მოხდეს ყველა შემთხვევაში, სანქციით იმ დეველოპერისთვის, რომელიც უარს იტყვის ტესტების ჩატარებაზე.
”ამ AI მოდელების მომწოდებლებს მოეთხოვებათ მიიღონ ზომები ფუნდამენტური უფლებების რისკის შესაფასებლად და შესამცირებლად, ჯანმრთელობა, უსაფრთხოება, გარემო, დემოკრატია და კანონის უზენაესობა“, - თქვა ჯეიჰუნ ფეჰლივანმა, ევროპელმა ადვოკატმა, რომელიც მაუწყებლის მიერ ინტერვიუში მონაწილეობდა. CNBC.
ერთი სიტყვით, ხელოვნური ინტელექტის ექსპერტები
სხვაგვარად არ შეიძლებოდა, ახალი ამბები იმის შესახებ, რომ ევროპაში ხელოვნური ხელოვნური ინტელექტის რეგულირების კანონი იქმნება, ბომბივით დაეცა დარგის სპეციალისტებსა და ზოგიერთ ტექნოლოგიურ ინდუსტრიას შორის.
წინასწარ უნდა აღინიშნოს, რომ ევროპის ხელოვნური ინტელექტის აქტი ჯერ კიდევ შემუშავების პროცესშია და რომ ბოლო დამტკიცება მხოლოდ წინასწარია. მიუხედავად ამისა, ზოგიერთი მნიშვნელოვანი მსახიობი შეშფოთებას გამოხატავს.
ევროპის კომპიუტერული და კომუნიკაციების მრეწველობის ასოციაციის თანახმად, ახალი კანონის მოქმედების ფარგლები ზედმეტად გაფართოვდა, რამაც შეიძლება გამოიწვიოს „უწყინარი AI-ების დაჭერა“.
„შემაშფოთებელია იმის დანახვა, რომ AI-ის სასარგებლო აპლიკაციების დიდი კატეგორიები - რომლებიც წარმოადგენენ ძალიან შეზღუდულ რისკებს - შეიძლება ახლა შეექმნას მკაცრი მოთხოვნები, ან ისინი შეიძლება აიკრძალოს ევროპაში“, - თქვა ბონიფას დე შამპრისმა, ორგანიზაციის პოლიტიკის მენეჯერმა CNBC-სთვის გაგზავნილ განცხადებაში. ელექტრონული ფოსტით.
ცნობილი იურიდიული ფირმის Clifford Chance-ის ტექნოლოგიების ხელმძღვანელის დესი სავოვას თქმით, ევროპაში გაჩენილი ხელოვნური ინტელექტის კონტროლის კანონები გავლენას მოახდენს მსოფლიოზე.
„ევროპაში შემოთავაზებული ხელოვნური ინტელექტის წესების წვდომა მიაღწევს AI დეველოპერებს მთელს მსოფლიოში“, - თქვა მან.
„თუმცა, მთავარი საკითხია, დააწესებს თუ არა ევროპის ხელოვნური ინტელექტის აქტი მსოფლიოში ხელოვნური ინტელექტის სტანდარტებს. ეს იმიტომ ხდება, რომ ჩინეთი, აშშ და დიდი ბრიტანეთი, რომ დავასახელოთ რამდენიმე, განსაზღვრავენ საკუთარ AI პოლიტიკას და მარეგულირებელ მიდგომებს“, - კითხულობს სავოვა.
„მაგრამ, უდავოდ, ისინი ყველა ყურადღებით ადევნებენ თვალყურს ევროპაში მიმდინარე მოლაპარაკებებს საკუთარი მიდგომების ადაპტირებისთვის“, - დაასკვნა მან.
და ბოლოს, სარა ჩენდერმა, ევროპული ციფრული უფლებების პოლიტიკის უფროსმა მრჩეველმა, ხაზი გაუსვა, რომ ახალი ევროპული AI კანონები დეველოპერებს მოსთხოვენ თავიანთი „ძალაუფლების“ დემონსტრირებას.
„მიუხედავად იმისა, რომ გამჭვირვალობის ეს მოთხოვნები [რომელიც შეიცავს კანონპროექტს] არ აღმოფხვრის შეშფოთებას ინფრასტრუქტურისა და ეკონომიკის შესახებ, ამ უზარმაზარის განვითარებით ხელოვნური ინტელექტის სისტემები, ისინი ტექნოლოგიურ კომპანიებს სთხოვენ, გაამჟღავნონ გამოთვლითი სიმძლავრის რაოდენობა, რომელიც საჭიროა მათი განვითარებისთვის“, - გაიხსენა მან. CNBC.
ჯერჯერობით, ევროპის ხელოვნური ინტელექტის აქტის შემდეგი ნაბიჯები ევროპარლამენტს ჯერ არ გამოუქვეყნებია.
დაამთავრა ისტორია და ადამიანური რესურსების ტექნოლოგია. წერით გატაცებული, დღეს ის ცხოვრობს ოცნებობს, რომ პროფესიონალურად იმოქმედოს, როგორც ინტერნეტის კონტენტის ავტორი, წერს სტატიებს სხვადასხვა ნიშებში და სხვადასხვა ფორმატში.