
ChatGPT 5 miał być mniej podatny na błędy i tzw. halucynacje, czyli generowanie nieprawdziwych informacji. Okazuje się jednak, że nie zawsze spełnia te oczekiwania – chatbot z nowym modelem językowym potrafi wyłożyć się nawet na prostym pytaniu.
OpenAI zaprezentowało GPT-5 – nową wersję swojego flagowego modelu językowego dostępnego w ChatGPT. Firma zapowiada, że to największy skok jakościowy od czasu poprzednich wersji. GPT-5 ma być szybszy, inteligentniejszy i bardziej precyzyjny, lepiej radząc sobie z kodowaniem, pisaniem czy zadaniami z zakresu opieki zdrowotnej. Model korzysta z nowego systemu routingu, który automatycznie uruchamia bardziej zaawansowane funkcje, gdy pytanie tego wymaga, a jego celem jest ograniczenie błędów i tzw. halucynacji, czyli generowania nieprawdziwych informacji.
Nowy ChatGPT z GPT-5 jest skierowany zarówno do zwykłych użytkowników, jak i programistów. Użytkownicy mogą teraz dostosować osobowość chatbota (np. „Sceptyk” czy „Słuchacz”), a twórcy oprogramowania mają dostęp do trzech wersji modelu – GPT-5, mini i nano – w zależności od potrzeb i budżetu. OpenAI podkreśla nacisk na bezpieczeństwo, testując GPT-5 przez tysiące godzin i ucząc go przyznawania się do niewiedzy, zamiast pewnego podawania błędnych informacji. Firma twierdzi, że to kolejny krok w stronę AGI – ogólnej sztucznej inteligencji.
Chat GPT nie jest nieomylny
OpenAI jasno komunikuje, że GPT-5 ma być znacznie bardziej dopracowany niż wcześniejsze modele językowe – zwłaszcza pod względem zgodności z faktami i sposobu komunikowania swoich możliwości. Nowy model lepiej rozpoznaje, kiedy zadanie jest niemożliwe do wykonania lub brakuje mu potrzebnych danych, i w takich sytuacjach rzadziej udziela błędnych lub wymyślonych odpowiedzi.
Mimo to OpenAI przyznaje, że GPT-5 wciąż może podawać nieprawdziwe informacje. Modele uczone na systemie nagród mogą nabierać skłonności do udzielania zbyt pewnych odpowiedzi – nawet wtedy, gdy nie mają wystarczających podstaw. Przykładowo: w teście polegającym na usunięciu wszystkich obrazów z zestawu multimodalnego CharXiv GPT-5 popełniał taki błąd tylko w 9 proc. przypadków, podczas gdy starszy model o3 robił to aż w 86,7 proc.
Zadał proste pytanie ChatGPT 5
Andrzej Dragan, fizyk i twórca zajmujący się popularyzacją nauki, postanowił przetestować możliwości nowego modelu językowego GPT-5 w ChatGPT.
Dragan zadał chatbotowi proste pytanie: która linia jest dłuższa? Początkowo chatbot błędnie zinterpretował obrazek jako iluzję Müllera-Lyera – złudzenie optyczne, w którym dwie linie tej samej długości wydają się różne ze względu na kształt zakończeń – i stwierdził, że linie mają tę samą długość.
Dopiero po dopytaniu przez Dragana chatbot przeliczył długości linii w pikselach, przyznał się do błędu i poprawił odpowiedź, stwierdzając, że linie faktycznie mają różną długość i nie jest to iluzja optyczna.
ChatGPT tłumaczył, że działa podobnie do ludzkiego mózgu – gdy widzi znajomy układ (linie ze strzałkami na końcach), automatycznie rozpoznaje wzorzec sugerujący złudzenie optyczne Müllera-Lyera. Dopiero analiza twardych danych ujawnia, że mimo podobieństwa graficznego, nie mamy do czynienia z klasycznym złudzeniem. Ciekawe, ilu ludzi, kojarząc tego typu rysunki ze złudzeniem Müllera-Lyera, również na pierwszy rzut oka uznałoby, że linie są tej samej długości.
Komentarze
2