Ciekawostki

Zadał proste pytanie w ChatGPT 5. Nowe AI popełniło błąd

przeczytasz w 2 min.

ChatGPT 5 miał być mniej podatny na błędy i tzw. halucynacje, czyli generowanie nieprawdziwych informacji. Okazuje się jednak, że nie zawsze spełnia te oczekiwania – chatbot z nowym modelem językowym potrafi wyłożyć się nawet na prostym pytaniu.

OpenAI zaprezentowało GPT-5 – nową wersję swojego flagowego modelu językowego dostępnego w ChatGPT. Firma zapowiada, że to największy skok jakościowy od czasu poprzednich wersji. GPT-5 ma być szybszy, inteligentniejszy i bardziej precyzyjny, lepiej radząc sobie z kodowaniem, pisaniem czy zadaniami z zakresu opieki zdrowotnej. Model korzysta z nowego systemu routingu, który automatycznie uruchamia bardziej zaawansowane funkcje, gdy pytanie tego wymaga, a jego celem jest ograniczenie błędów i tzw. halucynacji, czyli generowania nieprawdziwych informacji.

Nowy ChatGPT z GPT-5 jest skierowany zarówno do zwykłych użytkowników, jak i programistów. Użytkownicy mogą teraz dostosować osobowość chatbota (np. „Sceptyk” czy „Słuchacz”), a twórcy oprogramowania mają dostęp do trzech wersji modelu – GPT-5, mini i nano – w zależności od potrzeb i budżetu. OpenAI podkreśla nacisk na bezpieczeństwo, testując GPT-5 przez tysiące godzin i ucząc go przyznawania się do niewiedzy, zamiast pewnego podawania błędnych informacji. Firma twierdzi, że to kolejny krok w stronę AGI – ogólnej sztucznej inteligencji.

Chat GPT nie jest nieomylny

OpenAI jasno komunikuje, że GPT-5 ma być znacznie bardziej dopracowany niż wcześniejsze modele językowe – zwłaszcza pod względem zgodności z faktami i sposobu komunikowania swoich możliwości. Nowy model lepiej rozpoznaje, kiedy zadanie jest niemożliwe do wykonania lub brakuje mu potrzebnych danych, i w takich sytuacjach rzadziej udziela błędnych lub wymyślonych odpowiedzi.

Mimo to OpenAI przyznaje, że GPT-5 wciąż może podawać nieprawdziwe informacje. Modele uczone na systemie nagród mogą nabierać skłonności do udzielania zbyt pewnych odpowiedzi – nawet wtedy, gdy nie mają wystarczających podstaw. Przykładowo: w teście polegającym na usunięciu wszystkich obrazów z zestawu multimodalnego CharXiv GPT-5 popełniał taki błąd tylko w 9 proc. przypadków, podczas gdy starszy model o3 robił to aż w 86,7 proc.

Zadał proste pytanie ChatGPT 5

Andrzej Dragan, fizyk i twórca zajmujący się popularyzacją nauki, postanowił przetestować możliwości nowego modelu językowego GPT-5 w ChatGPT.

Dragan zadał chatbotowi proste pytanie: która linia jest dłuższa? Początkowo chatbot błędnie zinterpretował obrazek jako iluzję Müllera-Lyera – złudzenie optyczne, w którym dwie linie tej samej długości wydają się różne ze względu na kształt zakończeń – i stwierdził, że linie mają tę samą długość.

Dopiero po dopytaniu przez Dragana chatbot przeliczył długości linii w pikselach, przyznał się do błędu i poprawił odpowiedź, stwierdzając, że linie faktycznie mają różną długość i nie jest to iluzja optyczna.

ChatGPT tłumaczył, że działa podobnie do ludzkiego mózgu – gdy widzi znajomy układ (linie ze strzałkami na końcach), automatycznie rozpoznaje wzorzec sugerujący złudzenie optyczne Müllera-Lyera. Dopiero analiza twardych danych ujawnia, że mimo podobieństwa graficznego, nie mamy do czynienia z klasycznym złudzeniem. Ciekawe, ilu ludzi, kojarząc tego typu rysunki ze złudzeniem Müllera-Lyera, również na pierwszy rzut oka uznałoby, że linie są tej samej długości.

Komentarze

2
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    michald
    0
    Przecież ta sieć wykazała typową dla sieci cechę - lenistwo i minimalizowanie pracy potrzebnej do odpowiedzi.

    Witaj!

    Niedługo wyłaczymy stare logowanie.
    Logowanie będzie możliwe tylko przez 1Login.

    Połącz konto już teraz.

    Zaloguj przez 1Login