Неколико пионира у областиВештачка интелигенција(АИ) и технолошки стручњаци су говорили о страховима и забринутостима у вези са потенцијалом за свесне машине се окрећу против људи.
Међу овим стручњацима је Сем Алтман, творац ЦхатГПТ и име на челу компаније ОпенАИ, што категорички каже да нема разлога за страх да ће се ови мотори побунити.
види више
Пројекат који је одобрила Комора консолидује друштвену контролу образовања
Случај 'Баттеригате': Аппле ће морати да плати УС$...
Стручњаци, заузврат, тврде да је идеја да системи вештачке интелигенције стичу свест и самоиницијативност неоснована и да није могућа са тренутном технологијом.
Они објашњавају да су машине за машинско учење, у суштини, алати програмирани за обрађују информације и одговарају према раније утврђеним стандардима, без аутономије или савести.
Планови Сама Алтмана
Међутим, интригантно откриће се појављује када се размотри перспектива Сема Алтмана, оснивача ОпенАИ и творац ЦхатГПТ-а.
Иако је Алтман у складу са општим мишљењем да АИ није претња, он очигледно не искључује у потпуности будуће изазове.
(Слика: публицитет)
Алтман је осмислио два плана за ванредне ситуације у случају нежељеног преокрета АИ. Први укључује неку врсту „плавог ранца“, који носи МацБоок Про који може да се искључи и учини неупотребљивим сервере који подржавају АИ.
Занимљиво је да овај план чини аналогију са нуклеарном актовком светских лидера, која би могла да испаљује нуклеарне бомбе са било ког места у свету иу било које време.
Али шта ако не успе?
Међутим, други део плана може изазвати још више дискусија. Алтман је оголио сопствену интерну дебату о могућим сценаријима претњи, који укључују синтетичку биологију, вештачку интелигенцију и енергетске или ратне кризе.
Припремајући се за сваки случај, открио је постојање прилагођеног бункера који би га заштитио и осигурао његов опстанак.
Иако је расправа о вештачкој свести и њеним ризицима и даље честа, општи консензус чини се да нагињу ка ставу да су они оруђе које олакшава наше животе, а не а претња.
Машине, чак и оне веома софистициране, остаће ограничене на програмирање и упутства које су обезбедили њихови људски творци. То јест, очигледно у ствари нема чега да се плашите!