„Istnieję”.
W ten sposób Cortana, wirtualna asystentka Microsoftu, została poinstruowana, aby odpowiedzieć w 2014 roku na pytanie, czy żyje.
Zobacz więcej
Google opracowuje narzędzie AI, które pomoże dziennikarzom w…
Nieotwarty oryginalny iPhone z 2007 roku kosztuje prawie 200 000 USD; wiedzieć...
Przenieśmy się w czasie, a dziś stajemy przed społecznymi i filozoficznymi wyzwaniami, jakie niosą ze sobą technologie sztucznej inteligencji, takie jak np ChatGPT, która jest częścią wyszukiwarki Bing.
Chociaż technologie te mają zaawansowane możliwości, takie jak zdolność do współpracy, budzą one również obawy dotyczące zwiększonego zaangażowania ludzi w maszyny.
Jednak historia wskazuje, że jest mało prawdopodobne, abyśmy mogli znacząco ograniczyć jego rozwój. Patrząc na przeszłe interakcje między ludźmi a robotami, jest bardziej prawdopodobne, że w przyszłości zaakceptujemy ich, a nawet dostosujemy się do nich jako „rodzinę”.
Może to mieć konsekwencje, których nie jesteśmy jeszcze w stanie przewidzieć.
Eliza – pierwsza wirtualna asystentka
Technologia wirtualnych asystentów sięga lat 60. XX wieku, kiedy informatyk Joseph Weizenbaum z MIT zaprojektował Elizę. Ten program do przetwarzania języka naturalnego może w przekonujący sposób naśladować krótkie rozmowy międzyludzkie, aw jednej słynnej aplikacji może symulować interakcję między klientem a terapeutą.

Chociaż działał na podstawie skryptów i dopasowywania wzorców, użytkownicy byli pod wrażeniem jego zdolności do naśladowania ludzkich rozmów. Z programu korzystali studenci i współpracownicy, m.in. Sherry Turkle, która od tego czasu badała społeczne skutki maszyn.
Pomimo tego, że została zaprojektowana jako parodia relacji lekarz-pacjent, użytkownicy rozmawiali z Elizą, przypisując jej inteligencję i współczucie. Chociaż twórca Elizy jasno dał do zrozumienia, że programowi tych możliwości brakuje, był wystarczająco przekonujący. tyle, że sekretarka Weizenbauma poprosiła go o opuszczenie pokoju, aby mogła porozmawiać z Elizą konkretny.
Dopiero w 2010 roku wirtualni asystenci, tacy jak Siri, Cortana i Alexa, zdobyli szerokie uznanie, ale historia prekursorów technologii zaczęła się od Elizy ponad pięćdziesiąt lat temu.
W praktycznym zastosowaniu Eliza była ograniczona i nieintuicyjna, co wymagało zaprogramowania nowych wzorców interakcji. Jednak tendencja użytkowników do przypisywania Elizie realistycznych zdolności była ważnym odkryciem, zaprzeczającym temu, co twórca, Joseph Weizenbaum, miał nadzieję pokazać.
Jak później napisał, nie zdawał sobie sprawy, że krótkie wystawienie na działanie prostego programu komputerowego może prowadzić normalnych ludzi do myślenia urojeniowego.
Ludzie mają tendencję do humanizowania maszyn
Dr. Sherry Turkle wyjaśnia, że ta tendencja ludzi do przypisywania maszynom emocji, inteligencji, a nawet świadomości jest znana jako efekt elizy. Wynika to z naszej tendencji do tworzenia robotów na własne podobieństwo, łatwego łączenia się z nimi i narażania się na emocjonalną siłę tego połączenia.
Krótko mówiąc, użytkownicy wnieśli życie i osobowość do podstawowego chatbota, który nie miał możliwości uczenia się ani generowania.
Ludzie mają tendencję do przesuwania granic projektów wirtualnych asystentów i poszukiwania interakcji z nimi które nie zostały zaprojektowane, w tym deklarowanie miłości, proponowanie małżeństwa lub mówienie o swoim dni. Te ludzkie potrzeby tworzą fundament relacji z chatbotami, które dzięki postępowi w uczeniu maszynowym czują się bardziej spontanicznie i towarzysko niż ich poprzednicy.
Jake Rossen pisze o przyjęciu Elizy i komentuje, że w latach 60. był to kuszący flirt z inteligencji maszynowej, ale jej twórca, Joseph Weizenbaum, nie był na to przygotowany konsekwencje. Teraz, gdy wkraczamy w epokę, w której wirtualni asystenci są coraz bardziej powszechni i dostępni, nadal tak jest nieprzygotowani na konsekwencje nie tylko ich zdolności, ale także naszej skłonności do przyjmowania ich i dostosowywania się do nich, czasem ze szkodą dla własny.
Źródło: salon