«Я существую».
Вот как Кортане, виртуальному помощнику Microsoft, было приказано реагировать в 2014 году, когда его спросили, жив ли он.
узнать больше
Google разрабатывает инструмент искусственного интеллекта, чтобы помочь журналистам…
Неоткрытый оригинальный iPhone 2007 года продается почти за 200 000 долларов; знать...
Давайте двигаться вперед во времени, и сегодня мы сталкиваемся с социальными и философскими проблемами, вызванными технологиями искусственного интеллекта, такими как ЧатGPT, который является частью поисковой системы Bing.
Хотя эти технологии обладают расширенными возможностями, такими как возможность совместной работы, они также вызывают опасения по поводу увеличения участия человека в работе с машинами.
Однако история свидетельствует о том, что вряд ли нам удастся существенно сдержать его развитие. Глядя на прошлые взаимодействия между людьми и роботами, более вероятно, что в будущем мы примем и даже адаптируемся к ним как к «семье».
Это может иметь последствия, которые мы пока не в состоянии предвидеть.
Элиза — первая виртуальная помощница
Технология виртуального помощника восходит к 1960-м годам, когда ученый-компьютерщик Джозеф Вайценбаум из Массачусетского технологического института разработал Элизу. Эта программа обработки естественного языка могла убедительно имитировать короткие человеческие разговоры, а в одном известном приложении она могла имитировать взаимодействие между клиентом и терапевтом.
Хотя он работал на сценариях и сопоставлении с образцом, пользователи были впечатлены его способностью имитировать человеческие разговоры. Программа была испытана студентами и коллегами, в том числе Dr. Шерри Теркл, которая с тех пор изучает социальные эффекты машин.
Несмотря на то, что он был задуман как пародия на отношения между врачом и пациентом, пользователи говорили с Элизой, приписывая ей ум и сострадание. Хотя создатель Элизы ясно дал понять, что программа лишена этих возможностей, он был достаточно убедителен. достаточно, чтобы секретарь Вейценбаума попросила его выйти из комнаты, чтобы она могла поговорить с Элизой в особый.
Только в 2010-х годах виртуальные помощники, такие как Siri, Cortana и Alexa, получили широкое распространение, но история предшественников технологий началась с Элизы более пятидесяти лет назад.
В своем практическом применении Элиза была ограничена и не интуитивно понятна, что требовало программирования новых моделей взаимодействия. Однако тенденция пользователей приписывать Элизе реалистичные способности была важным открытием, противоречащим тому, что надеялся показать создатель Джозеф Вейценбаум.
Как он позже писал, ему не удалось понять, что кратковременное воздействие простой компьютерной программы может привести нормальных людей к бредовому мышлению.
Люди склонны очеловечивать машины
Др. Шерри Теркл объясняет, что склонность людей приписывать эмоции, интеллект и даже сознание машинам известна как Элиза эффект. Это результат нашей склонности создавать роботов по нашему собственному образу, легко взаимодействовать с ними и делать себя уязвимыми для эмоциональной силы этой связи.
Короче говоря, пользователи вдохнули жизнь и индивидуальность в рудиментарный чат-бот, у которого не было возможностей обучения или генерации.
Люди склонны раздвигать границы дизайна виртуальных помощников и искать взаимодействия для которые они не планировали, включая признание в любви, предложение руки и сердца или разговоры о ваших дней. Эти человеческие потребности создают основу для отношений с чат-ботами, которые благодаря достижениям в области машинного обучения чувствуют себя более спонтанными и общительными, чем их предшественники.
Джейк Россен пишет о приеме Элизы и отмечает, что в 1960-х годах это был заманчивый флирт с искусственного интеллекта, но его создатель Йозеф Вейценбаум не был готов к последствия. Сейчас, когда мы вступаем в исторический период, когда виртуальные помощники становятся все более распространенными и доступными, мы по-прежнему не готовы к последствиям не только их способностей, но и нашей склонности приветствовать и приспосабливаться к ним, иногда в ущерб собственный.
Источник: салон