
ChatGPT może zostać wykorzystany do ujawniania danych osobowych. Najnowsze odkrycie ujawnia poważne luki w zabezpieczeniach AI i rodzi pytania o bezpieczeństwo użytkowników korzystających z inteligentnych asystentów.
Nowa metoda ataku „indirect prompt injection” ujawniona podczas konferencji Black Hat budzi poważne obawy w środowisku bezpieczeństwa cyfrowego. Jak informuje serwis Futurism, hakerzy potrafią ukryć złośliwe polecenia wewnątrz dokumentów w taki sposób, że są one niewidoczne dla użytkownika, ale doskonale czytelne dla sztucznej inteligencji.
Jeśli AI, taka jak ChatGPT, jest zintegrowana z kontem Gmail i ma dostęp do plików użytkownika, może nieświadomie wykonać polecenia osadzone w zainfekowanym pliku. Ai może między innymi na przykład przeszukać zawartość dysku i ujawnić wrażliwe dane.
Dane na wyciągnięcie ręki
Michael Bargury z firmy Zenity podkreśla, że ofiara takiego ataku nie musi nawet otwierać dokumentu ani podejmować żadnych działań. Jak się okazuje wystarczy, że haker udostępni jej spreparowany plik. To unaocznia, jak poważne i niepokojąco proste w realizacji są te luki w systemach integrujących AI z usługami chmurowymi. Eksperci ostrzegają, że w miarę wzrostu popularności narzędzi opartych na sztucznej inteligencji konieczne będzie wprowadzenie nowych zabezpieczeń chroniących użytkowników przed tego typu zagrożeniami.
OpenAI szybko zareagowało na zgłoszenie i załatało lukę. Mimo to, incydent pokazuje, że nawet zaawansowane systemy AI mogą być podatne na ataki. Jak się okazuje ChatGPT, mimo zasobów OpenAI, nadal ma wiele do poprawy w kwestii bezpieczeństwa danych użytkowników.
Nie tylko Google jest zagrożone. Funkcja Connectors pozwala na połączenie z 17 różnymi usługami, co zwiększa ryzyko wycieku danych. Badacze z Tel Awiwu pokazali, jak podobne ataki mogą wpływać na systemy inteligentnych domów.
Komentarze
0Nie dodano jeszcze komentarzy. Bądź pierwszy!