Ciekawostki

Dosyć kłamstw? ChatGPT przyzna się do błędu... kiedyś

przeczytasz w 2 min.

Zdarzyło ci się, że ChatGPT odpowiedział na twoje pytanie niezgodnie z prawdą? Jeśli tak, to OpenAI pracuje nad rozwiązaniem, które wprowadzi w tryby algorytmu trochę wstydu i poczucia winy. Wszystko po to, aby otrzymywane odpowiedzi były jak najdokładniejsze.

Chatboty AI mają to do siebie, że sprawiają wrażenie idealnie zorientowanych w tematach, o które je zapytamy. Jednocześnie ich praca opiera się o modele językowe, których głównym celem jest brzmieć przekonująco, a niekoniecznie mówić prawdę. Trzy lata po premierze ChataGPT nie wszyscy zdają sobie sprawę z tej zależności. Badacze też nie do końca wiedzą, co tak naprawdę dzieje się w “głowie” modeli sztucznej inteligencji. 

OpenAI, które monentami stoi na froncie przemian związanych ze sztuczną inteligencją, stoi przed dużym wyzwaniem. Nie chodzi tylko o płynną tranzycję z organizacji non-profit na firmę zarabiającą na swoim produkcie. Przez ostatnie miesiące inżynierowie firmy intensywnie pracują nad rozwiązaniem palącej kwestii prawdomówności ChataGPT. 

Jak zmusić ChatGPT do mówienia prawdy?

W obecnej formie chatboty działają coraz lepiej, ale nie zawsze wynika to ze świadomych decyzji inżynierów. W terminologii fachowej przyrównuje się je do czarnych skrzynek: rzadko kiedy wiadomo, dlaczego dane procesy zachodzą w ten sposób. Stąd też biorą się tzw. halucynacje, czyli momenty, w których model zmyśla informacje i podaje jako faktyczne.

MIT Technology Review rzuca światło na nową metodę walczenia z tym procederem. W tym celu inżynierowie OpenAI stworzyli sekcję “wyznań”. Poza standardowym zapisem procesu, przez jaki przechodzi model, by podać odpowiedź, na jej końcu ChatGPT przyznaje się do tego, jak mocno trzymał się instrukcji, jakie sobie wyznaczył. W efekcie może przyznać się do błędu jeszcze zanim zwrócimy mu uwagę, że podał niewłaściwe informacje. 

ChatGPT nadal będzie potrzebował ludzkiej kontroli

Rozwiązanie jest w fazie testowej i podlega ciągłym modyfikacjom, a inżynierowie OpenAI nie zakładają, że w obecnej formie dotrze ono do końcowych, konsumenckich modeli ChataGPT. Największe wyzwanie stanowi obecnie znalezieni erozwiązania, które pozwoli modelom uzyskać świadomość błędu.

Chat GPT od OpenAIChatGPT od OpenAI ma problemy z prawdą. Jak zresztą każdy chatbot AI

Duże modele językowe jak GPT skupiają się na wielu aspektach odpowiedzi jednocześnie. Ich końcowym celem jest dostarczenie do odbiorcy informacji w odpowiednim czasie, zachowując przy tym merytorykę, spójność językową oraz przydatność. Gdy czas jest ograniczony, algorytmy ustalają priorytet wykorzystania mocy obliczeniowej celem uzyskania dobrze wyglądającej odpowiedzi. 

Ponadto modele językowe nie mają zdolności podejrzewania nieprawdy, którą nam udaje się nabywać przez interakcje z ludźmi czy odczytywanie sygnałów zewnętrznych. W obliczu ścian tekstu używanych do ich trenowania, pojawiają się problemy ze zrozumieniem różnicy między źródłem szczegółowo opisującym fakty, a takim, które korzysta chociażby ze skrótów myślowych. Do tego modele mają tendencję do chodzenia po linii najmniejszego oporu, gdy chodzi o wybieranie odpowiedzi. Dlatego w dalszym ciągu kluczową rolę odegra czynnik ludzki. Do tego czasu sprawdźcie nasz poradnik, jak korzystać z ChatGPT.

Źródło: MIT Technology Review

Komentarze

0
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.

    Nie dodano jeszcze komentarzy. Bądź pierwszy!

Witaj!

Niedługo wyłaczymy stare logowanie.
Logowanie będzie możliwe tylko przez 1Login.

Połącz konto już teraz.

Zaloguj przez 1Login