Учените казват, че свръхинтелигентният изкуствен интелект ще бъде неконтролируем

Свръхинтелигентните системи вече се създават и разпространяват по целия свят поради технологичната надпревара. Поради тази причина възникват някои въпроси: възможно ли е контролират изкуствения интелект колко далеч? Колко сме готови да се борим с a AI който работи извън човешкия капацитет? Колко етично е да се създаде програма, чиито последствия и въздействия все още не могат да бъдат измерени? Вижте сега повече информация за тези въпроси, зададени от учени.

Прочетете още: 7 приложения на изкуствения интелект: някои вече заместват човешкия труд

виж повече

Сигнал: ТОВА отровно растение вкара млад мъж в болница

Google разработва AI инструмент, за да помогне на журналистите в...

Изкуствен интелект със суперинтелект

Звучи като сюжет от научнофантастичен филм, но истината е, че изкуственият интелект наистина може да създаде автономност, за да научи команди, които по-късно могат да се обърнат срещу хората. Не е гарантирано, например, че те ще следват правила като „не причинявайте вреда на човечеството“, тъй като че ще бъдат програмирани да имат автономия и да могат да заобикалят ограниченията, наложени от програмисти.

Проблем със спирането на Алън Тюринг

Наречен „проблем със спирането“, този проблем дава две алтернативи за команда, дадена на компютър: или ще го направи стигне до заключение и или реагира на него, като спре, или ще продължи в цикъл, опитвайки се да намери решение – докато намери я. Поради тази причина е невъзможно да се знае дали изкуственият интелект ще спре или ще намери и съхрани всички възможни заключения в паметта си.

Проблемът с това е, че не е възможно да се измери след известно време кое решение или алтернатива машината ще вземе за даден проблем. По този начин поведението му ще бъде непредвидимо и ще бъде безсмислено да се създава алгоритъм за ограничаване.

Различия в мненията на учените

Някои учени твърдят, че всички постижения в технологиите трябва да бъдат предназначени да насърчават общото благо по безопасен и контролиран начин. По този начин супермашина, способна да съхранява всякакъв вид интелект, с неефективни правомощия за задържане и все още неизмерен капацитет за унищожаване, изглежда като нещо опасно.

Имайки предвид това, компютърните изследователи твърдят, че свръхинтелигентните машини могат да имат вреди, които надхвърлят ползите, и тяхното изграждане трябва да се избягва. Много програмисти постоянно се справят с факта, че техните машини са се научили да правят неща, които те никога не са могли. преподавани или създадени команди, които да учат - и това, в зависимост от това, което научават, може да символизира a риск.

етични въпроси

Ограничаването на способностите на суперразузнаването може да бъде жизнеспособна алтернатива. За да направите това, е възможно да го отрежете от части от интернет или от определени мрежи. Това биха били примери за ограничителни механизми. Въпреки това, все още не е известно дали тези алтернативи са жизнеспособни - или дали машината ще има достъп до това съдържание по начин, който все още не е разкрит.

Следователно, ако човечеството продължи да напредва с изкуствения интелект, трябва да бъдем много внимателни със степента, в която той трябва да бъде автономен.

Важно е да знаете: 6 признака на тревожност при децата

А безпокойство Може да се прояви както физически, така и емоционално. Според специалистите този п...

read more

3 хигиенни грешки в кухнята, които могат да навредят на здравето ви

Поддържането на добра хигиена при готвене е тайната за поддържане на добро здраве и възможност за...

read more

Внимание! Открийте 5 зеленчука, които не трябва да се консумират сурови

Като се имат предвид рецептите за салати, обичайно е хората да консумират сурови плодове и зеленч...

read more
instagram viewer