OpenAI znacząco zmienia zasady użytkowania ChatGPT, wycofując się z udzielania przez system specyficznych porad medycznych, prawnych i finansowych. Zgodnie z doniesieniami Nexta, chatbot ma być teraz traktowany wyłącznie jako „narzędzie edukacyjne”, a nie „konsultant”. Zmiana ta jest odpowiedzią na rosnące obawy o odpowiedzialność prawną i konieczność dostosowania się do regulacji, które zabraniają użytkownikom polegania na ChatGPT w sprawach wymagających profesjonalnych certyfikacji, takich jak opieka zdrowotna, decyzje finansowe czy kwestie prawne, bez nadzoru człowieka.
Nowa polityka radykalnie ogranicza zakres interakcji. ChatGPT będzie teraz jedynie wyjaśniać ogólne zasady i mechanizmy, a także kierować użytkowników do wykwalifikowanych specjalistów. Oznacza to, że system nie będzie już podawał konkretnych nazw leków czy dawek, generował szablonów pozwów sądowych ani oferował porad inwestycyjnych czy rekomendacji kupna/sprzedaży. OpenAI tłumaczy, że modyfikacje mają na celu „zwiększenie bezpieczeństwa użytkowników i zapobieganie potencjalnym szkodom” wynikającym z nadmiernego polegania na chatbocie w kwestiach wysokiego ryzyka.
Ograniczenia wprowadzono w związku z szeroką debatą publiczną na temat rosnącej liczby osób szukających w chatbotach AI porad eksperckich, zwłaszcza w medycynie. W przeciwieństwie do licencjonowanych profesjonalistów, rozmowy z ChatGPT nie są chronione tajemnicą zawodową, co stwarza ryzyko ich wykorzystania np. w sądzie. Użytkownicy zgłaszają, że filtry bezpieczeństwa blokują już próby obejścia nowych zasad. ChatGPT może być pomocny w podsumowywaniu informacji lub burzy mózgów, lecz w sprawach decyzyjnych zaleca się zawsze konsultację z przeszkolonymi specjalistami.