Питання навколо майбутнього штучного інтелекту (ШІ) продовжують бути гарячими у всьому світі.
Ця тема стала ще більш актуальною після того, як відомі керівники та авторитетні вчені вирішили викрити свої проблеми. Деякі навіть вірять у здатність людей з часом знищуватися.
побачити більше
Експерти кажуть, що штучний інтелект є силою добра
У сфері розвитку AI Китай просувається, а США…
Але хіба це можливо?
Дивіться також: Відкрийте для себе 5 професій, які виникли завдяки штучному інтелекту
Відкритий лист попереджає про небезпеку ШІ
Відкритий лист, опублікований 30 травня, містив підписи відповідальних за великі компанії, такі як OpenAI і Google DeepMind. Насправді Гоффрі Хінтон і Йошуа Бенгіо також підписали контракт, і ці двоє вважаються «хрещеними батьками» сучасного ШІ.
Мета підписантів була лише одна: спробувати зменшити потенційно шкідливі наслідки, які може спричинити ШІ. Цю проблему слід розглядати як глобальну надзвичайну ситуацію нарівні з пандеміями та ядерними війнами.
Стаття некомерційної організації Center for Ai Safaty також посилила страхи багатьох людей. Генеральним директором організації є Ден Хендрікс, який є відомим фахівцем зі штучного інтелекту.
У тексті під назвою «Природний відбір надає перевагу штучному інтелекту, а не людям» йдеться про те, що природний відбір надає перевагу штучному інтелекту набагато більше, ніж людям.
Як ШІ може знищити людей?
По-перше, знайте, що науковців не хвилюють простіші інструменти, як ChatGPT та інший штучний інтелект, який, наприклад, може робити зображення.
Вони говорять про майбутні інтелекти, здатні набувати свідомості та вживати дій на основі того, що вони «хочуть», а не того, що їм було наказано робити.
За словами дослідників і керівників, штучний інтелект такого рівня буде здатний виконувати такі дії, як створення або випуск смертельний для людства, поширювати різний брехливий і оманливий контент з надзвичайною ефективністю, запускати ядерні бомби, тощо
Загалом існує побоювання, що машина, яка прийде до висновку, що люди — це зло, з яким треба боротися, легко знищить цей вид з лиця Землі.
Такому катастрофічному сценарію передувало б спустошення ринок праці і можливості для людей, серед інших наслідків невибіркового використання штучного інтелекту.