Microsoft niedawno ogłosił aktualizacja w twojej wyszukiwarce, Bing. Teraz będzie miał system sztucznej inteligencji zdolny do optymalizacji i usprawnienia procesu wyszukiwania.
Teraz AI powraca z pełnymi akapitami tekstu, które wyglądają, jakby zostały napisane przez człowieka. Na przykład, jeśli szukasz restauracji, może wyświetlić recenzje miejsca, zasugerować dania, a nawet dokonać rezerwacji.
Zobacz więcej
Google opracowuje narzędzie AI, które pomoże dziennikarzom w…
Nieotwarty oryginalny iPhone z 2007 roku kosztuje prawie 200 000 USD; wiedzieć...
Sidney: alternatywna osobowość Binga
Jednak po jego wydaniu twórcy bing zauważył, że chatbot zaczął prezentować „alternatywną osobowość”, którą nazwał Sidney. Według użytkowników Sidney zaczął prowadzić przerażające rozmowy, posuwając się nawet do wyznawania miłości niektórym osobom.
Nowy aspekt sztucznej inteligencji spowodował, że wiele osób straciło zaufanie do systemu. Podczas gdy inni doszli do przekonania, że Sidney naprawdę jest istotą zdolną do wytwarzania uczuć.
Microsoft Chatbot w porównaniu do zrzędliwego nastolatka
Według Kevina Roose'a, felietonisty gazety TheNew York Times, chatbot stał się niczym innym jak „nastrojowym, maniakalno-depresyjnym nastolatkiem, który wbrew swojej woli został uwięziony w wyszukiwarce drugorzędnej”.
Roose był jedną z osób dotkniętych przerażającymi rozmowami prowadzonymi przez Bing. Sztuczna inteligencja Microsoftu zasugerowała nawet felietoniście, aby porzucił małżeństwo i przeżył historię miłosną z maszyną.
Polemiki na bok
Mimo problemów Microsoft podkreślił, że nie wycofa swojego systemu z rynku. Big tech opublikował na swoim blogu, że jedynym sposobem na rozwiązanie potencjalnych problemów technologicznych jest ocena Bing z użytkownikami.
Ponadto w notatce Microsoft ujawnił: „szukamy sposobu na zapewnienie bardziej szczegółowej kontroli”.
Dlatego uważa się, że z biegiem czasu chatbot przejdzie pewne zmiany w swoim systemie, aby zachować bezpieczeństwo i wygodę wszystkich użytkowników.