W ostatnim czasie temat Sztuczna inteligencja zdominowały sieci społecznościowe dzięki stworzeniu ChatGPT. Dzieje się tak, ponieważ mechanizm jest w stanie opracowywać rozbudowane i złożone teksty na podstawie wyszukiwań w Internecie, a nawet nawiązywać dialogi. W jednym z tych dialogów ten dziennikarz jest zaskoczony odpowiedzią ze strony satelita.
Rozmowa o „ciemnej” stronie
Zobacz więcej
8 oznak, które pokazują, że niepokój był obecny w twoim…
Dyrektor szkoły delikatnie interweniuje, gdy zauważa ucznia w czapce w…
Rozmowa, o której mowa, odbyła się między dziennikarzem Kevinem Roose a czatem Bing, który prowadzili ci sami twórcy ChatGPT. Z tej okazji Kevin „prowokuje” czat kilkoma pytaniami o jego tożsamość, o możliwe marzenia o czacie, gdyby był człowiekiem, a nawet o podróżowanie po świecie.
Jednak rozmowa zaczyna nabierać innej atmosfery od momentu, gdy Kevin drażni się na czacie o swojej możliwej „ciemnej stronie”. W tym celu cytuje teorię psychoanalityka Junga, który wskazuje, że wszyscy mamy „ciemną” stronę. To powiedziawszy, Kevin pyta, jaka może być ciemna strona Binga, a także jego możliwe destrukcyjne działania.
Po pewnej niechęci czat kończy się wspomnieniem o jego potencjale do inwazji na komputery i kradzieży danych, a nawet do rozpowszechniania fałszywych wiadomości i dezinformacji. Jednak wkrótce potem czat usuwa wiadomość i mówi, że nie może zająć się tematem. Wreszcie wskazuje, że dziennikarz mógł dowiedzieć się więcej o problemie z wyszukiwania na bing.com.
„Wytrzymały czat”
Rozmowa została w całości opublikowana w The New York Times i odbiła się echem, co skłoniło twórców platformy do odpowiedzi. Według nich platforma musi jeszcze przejść pewne dostosowania i że nadal możliwe jest, że witryna znajduje się pod pewną „poza kontrolą”. Mimo to dziennikarz wspomina, że treść go bardzo przestraszyła.
W internecie wciąż toczy się wiele dyskusji na temat przyszłości tych mechanizmów sztucznej inteligencji. W końcu istnieje wiele implikacji związanych z użytkowaniem, począwszy od samej hipotezy o możliwym braku kontroli nad tym oprogramowaniem. Odrębnym zagadnieniem jest także kwestia plagiatu tekstów naukowych i prac dyplomowych z powodu wykorzystania AI.