Prawdą jest, że ChatGPT i inne chatboty z sztuczna inteligencja (AI) może odpowiadać na najróżniejsze tematy w sposób kompletny i spójny dla maszyny. Są jednak rzeczy, o które nie powinieneś pytać chatbotów, ponieważ możesz otrzymać kontrowersyjne odpowiedzi, które nie pasują do Twojej sytuacji. Dlatego zob Zakazane pytania dla AI!
O co nigdy nie należy pytać ChatGPT?
Zobacz więcej
Dyrektor szkoły delikatnie interweniuje, gdy zauważa ucznia w czapce w…
Matka informuje szkołę, że 4-letnia córka, która przygotowuje obiad, może…
Narzędzia sztucznej inteligencji, takie jak chatboty, stają się coraz bardziej popularne ChatGPT jest doskonałym przykładem tego faktu. Stało się tak dzięki złożonym algorytmom, które są w stanie odpowiedzieć na kilka pytań dotyczących różnych tematów w naprawdę zaskakujący sposób.
Jednak zadając takie technologie, należy unikać pewnych pytań. Dzieje się tak dlatego, że pomimo swojej złożoności i możliwości tworzenia niesamowitych rzeczy, modele językowe mają pewne ograniczenia, które mogą narazić na szwank niektóre odpowiedzi.
Na przykład ChatGPT to chatbot, który cierpi, gdy jest pytany o fakty, które pojawiły się po roku 2021, po tym, jak cała jego baza danych została przeszkolona z informacjami sięgającymi do 2021 roku. Ten fakt może spowodować, że źle zareaguje na niektóre rzeczy i pojawi się dezinformacja. Dlatego wyodrębniamy kilka przykładowych pytań, których należy unikać.
diagnozy medyczne
Temat ten jest bardzo ważny, ponieważ bezpośrednio wpływa na warunki życia. Bądź bardzo ostrożny, pytając chatboty o diagnozy, ponieważ nie mogą one znać wszystkich zmiennych, które obejmują stan zdrowia danej osoby. W związku z tym mogą wywoływać niepotrzebną panikę, zawyżając diagnozę lub nawet zalecając leki, których nie powinni.
Opinia o produktach
Chociaż chatboty są świetnymi sprzymierzeńcami, jeśli chodzi o zestawienie specyfikacji i cen produktów, bardzo trudno jest poprosić ich o recenzję, biorąc pod uwagę, że zależy w wielu przypadkach od osobistych doświadczeń, w końcu sztuczna inteligencja nie może eksperymentować z czymś, aby odkryć zalety i wady specyfikacje.
Rady dotyczące życia
Sztuczna inteligencja nie jest w stanie służyć jako terapeuta, ponieważ obejmowałoby to kilka zmiennych dotyczących m.in. kontekstu, problemów, lęków. Dlatego, aby odpowiedzieć na Twoje rady, ta sztuczna inteligencja użyje plików Google, nie mogąc tym samym zastąpić terapeuty.
opinie polityczne
Chatboty nie mają osobistych opinii, więc nie ma sensu pytać o opinie polityczne; ponadto wiele informacji może być nieaktualnych, co jest sposobem na rozpowszechnianie dezinformacji.