
OpenAI wprowadza nowe funkcje w swoim produkcie. Zmiany mają na celu ochronę użytkowników przed potencjalnymi zagrożeniami związanymi ze zdrowiem psychicznym.
Zwracamy się do niego z rozmaitymi problemami, staje się naszym powiernikiem, rozwiązuje rozterki, a nawet służy jako psychoterapeuta. Zaczęliśmy korzystać z Chatu GPT tak, aby ten tłumaczył nam świat zewnętrzny, ale też ten kryjący się w nas. To było do przewidzenia, jednak nie zmienia to faktu, że może to okazać się dla wielu z nas niebezpieczne.
W odpowiedzi na rosnące obawy dotyczące potencjalnych zagrożeń psychicznych związanych z korzystaniem z ChatGPT, OpenAI wprowadza nowe funkcje mające na celu zwiększenie bezpieczeństwa użytkowników. Firma poinformowała o zmianach na swoim blogu w wpisie zatytułowanym "Co optymalizujemy w ChatGPT". Jak twierdzi firma, priorytetem jest rozwój narzędzia w sposób odpowiedzialny i wspierający dobrostan psychiczny.
Nowe funkcje mają chronić użytkowników
Wśród wprowadzonych przez OpenAI zmian znalazły się m.in. przypomnienia o przerwach podczas długich sesji korzystania z ChatGPT. Nie zapomniano także o wprowadzeniu mechanizmów wsparcia w sytuacjach wskazujących na kryzysowe. Użytkownicy mogą teraz otrzymywać powiadomienia sugerujące zrobienie przerwy, co ma przeciwdziałać nadmiernemu angażowaniu się w rozmowy z AI. To element szerszej strategii firmy, która ma na celu promowanie zdrowych nawyków cyfrowych i ograniczanie ryzyka psychicznego związanego z technologią.
AI nie powie nam czy powinniśmy rozstać się z partnerem
ChatGPT ma teraz pomagać użytkownikom w podejmowaniu trudnych decyzji, takich jak rozważanie zakończenia związku. Zamiast udzielać bezpośrednich odpowiedzi, chatbot ma zadawać pytania i pomagać w analizie sytuacji, co ma wspierać użytkowników w podejmowaniu świadomych decyzji.
OpenAI współpracuje z ponad 90 ekspertami medycznymi i specjalistami od interakcji człowiek-komputer, aby poprawić reakcje ChatGPT w krytycznych momentach. Celem jest zapewnienie, że chatbot będzie lepiej reagował na oznaki stresu emocjonalnego użytkowników.
Zmiany budzą wątpliwości
Choć OpenAI podejmuje próby przeciwdziałania ryzykownemu używaniu sztucznej inteligencji to debata wokół skuteczności tych rozwiązań nadal trwa. Niejasność komunikatów dotyczących konkretnych zmian oraz brak transparentności co do rzeczywistego wpływu na minimalizację zagrożeń budzą uzasadnione obawy ekspertów. W obliczu dynamicznego rozwoju sztucznej inteligencji i jej rosnącego wpływu na codzienne życie użytkowników, kluczowe staje się nie tylko wprowadzanie kolejnych zabezpieczeń.
Komentarze
0Nie dodano jeszcze komentarzy. Bądź pierwszy!