Научници кажу да ће супер-интелигентна вештачка интелигенција бити неконтролисана

Суперинтелигентни системи се већ стварају и шире широм света због технолошке трке. Из тог разлога се намећу нека питања: да ли је могуће контролишу вештачку интелигенцију колико далеко? Колико смо спремни да се боримо против а АИ који ради изнад људских могућности? Колико је етично креирати програм чије се последице и утицаји још не могу измерити? Погледајте сада више информација о овим питањима која постављају научници.

Опширније: 7 примена вештачке интелигенције: неке већ замењују људски рад

види више

Упозорење: ОВА отровна биљка довела је младића у болницу

Гоогле развија АИ алат за помоћ новинарима у…

Вештачка интелигенција са суперинтелигенцијом

Звучи као заплет научнофантастичног филма, али истина је да вештачка интелигенција заиста може да створи аутономију да научи команде које се касније могу окренути против људи. Није гарантовано, на пример, да ће се придржавати правила као што су „не наноси штету човечанству“, јер да ће бити програмирани да имају аутономију и да могу заобићи ограничења која намећу програмери.

Алан Туринг проблем заустављања

Назван „проблем заустављања“, овај проблем даје две алтернативе за команду дату рачунару: или хоће доћи до закључка и или одговорити на њега заустављањем, или ће наставити у петљи покушавајући да пронађе решење – све док Нађи је. Због тога је немогуће знати да ли ће вештачка интелигенција стати, или ће све могуће закључке пронаћи и сачувати у својој меморији.

Проблем са овим је што није могуће измерити, након неког времена, које решење или алтернативу ће машина предузети за дати проблем. На овај начин, његово понашање ће бити непредвидиво и биће бесмислено креирати алгоритам за задржавање.

Разлике између мишљења научника

Неки научници тврде да сав напредак у технологији мора бити дизајниран да промовише опште добро на безбедан и контролисан начин. На овај начин, супермашина способна да ускладишти било коју врсту интелигенције, са неефикасним моћима задржавања и још увек неизмереним капацитетом за уништавање, изгледа као нешто опасно.

Имајући то на уму, истраживачи рачунарства тврде да суперинтелигентне машине могу имати штете које су веће од користи, те да њихову конструкцију треба избегавати. Многи програмери се стално баве чињеницом да су њихове машине научиле да раде ствари које никада нису могле. научили или креирали команде за њих да науче – а ово, у зависности од тога шта уче, може да симболизује а ризик.

етичка питања

Ограничавање способности суперинтелигенције може бити одржива алтернатива. Да бисте то урадили, могуће је да га одвојите од делова интернета или одређених мрежа. Ово би били примери механизама за задржавање. Међутим, још није познато да ли су ове алтернативе одрживе - или да ли би машина имала приступ овим садржајима на начин који тек треба да буде откривен.

Стога, ако човечанство настави да напредује са вештачком интелигенцијом, неопходно је бити веома опрезан у којој мери оно мора бити аутономно.

Натурализам: контекст, карактеристике, у Бразилу

Натурализам: контекст, карактеристике, у Бразилу

О. натурализам, естетски и књижевни тренд у моди у последњој четвртини 19. века, појавио се у Фра...

read more
Адитивни везници: које су, главне, употребе

Адитивни везници: које су, главне, употребе

У адитивни везници су речи које повезати два појма или две клаузе са истом функцијом, успостављај...

read more
Губитак топлоте у људском телу

Губитак топлоте у људском телу

У покушају да постигне топлотну равнотежу, људско тело увек даје топлоту „хладнијем“ телу које је...

read more
instagram viewer