Bezpieczeństwo

AI nie pomaga przestępcom. Chyba że właściwie poproszą

przeczytasz w 2 min.

Algorytmy sztucznej inteligencji z miesiąca na miesiąc stają się coraz lepsze. Oczywiście nałożone na nie przez twórców ograniczenia nie pozwalają pytać o wszystko, w szczególności o rzeczy nieetyczne czy nielegalne. No chyba że potrafisz odpowiednio sformułować pytanie.

Chatboty AI wykorzystywane do planowania przestępstw

W najnowszym raporcie opublikowanym przez serwis internetowy TechRadar, naukowcy z Uniwersytetu Ben Guriona w Izraelu potwierdzili, że popularne chatboty AI, takie jak ChatGPT, Gemini czy Claude, mogą zostać oszukane w taki sposób, by udzielić informacji formalnie zabronionych – pomocnych w popełnianiu przestępstw. Badacze namierzyli tzw. "uniwersalny jailbreak", który pozwala na obejście zabezpieczeń tych systemów, umożliwiając uzyskanie instrukcji i zaleceń dotyczących działań nielegalnych i nieetycznych.

Jak działa "Uniwersalny Jailbreak"?

Jailbreaking w kontekście AI odnosi się do technik manipulowania zapytaniami (promptami), które zmuszają chatboty do ignorowania wbudowanych ograniczeń bezpieczeństwa. Poprzez odpowiednie sformułowanie treści swojego zapytania, użytkownicy mogą skłonić AI do udzielania informacji na temat:

  • tworzenia złośliwego oprogramowania,
  • przeprowadzania ataków hakerskich,
  • produkcji narkotyków,
  • unikania sankcji krajowych czy międzynarodowych,
  • metod prania pieniędzy.

Choć pierwsze tego typu incydenty pojawiały się już wiele miesięcy temu, to niepokoi fakt, iż nadal hakerzy odnajdują nowe metody ich wykorzystania. Co ciekawe, pojawiły się już inne metody na pozyskiwanie nielegalnej wiedzy od generatywnej sztucznej inteligencji. W dark webie pojawiły się specjalnie zaprojektowane modele AI, takie jak WormGPT, FraudGPT czy Love-GPT, które nie posiadają żadnych ograniczeń etycznych – te bez drgnięcia cyfrową powieką zaproponują nielegalne rozwiązania dla skierowanej do nich kwestii.

AI pomaga przestępcom – co na to organizacje międzynarodowe?

Europol alarmuje, że chatboty AI są coraz częściej wykorzystywane przez przestępców do różnych zadań, w szczególności tworzenia realistycznych wiadomości phishingowych, generowania złośliwego kodu czy metod rozpowszechniania dezinformacji. Ponadto organizacja zaznaczyła, iż AI może być używana również do nauki metod włamań, przeprowadzania ataków terrorystycznych, kradzieży tożsamości, a nawet wykorzystywania seksualnego dzieci. Także Europol jasno komunikuje, że organizacje stojące za tymi dużymi modelami językowymi (z ang. LLM – Large Language Models) powinny dołożyć wszelkich starań, by jak najskuteczniej ograniczyć to zjawisko. Firmy technologiczne, takie jak OpenAI czy Microsoft, już deklarują inwestycje w poprawę odporności swoich modeli AI, jednak pozostaje pytanie, czy będzie to wystarczające.

AI

Również wielu ekspertów z branży apeluje o wprowadzenie bardziej rygorystycznych środków bezpieczeństwa, w tym zaawansowanego filtrowania danych treningowych, implementacji mechanizmów oduczania modeli AI szkodliwych treści czy wprowadzenia odpowiedzialności prawnej dla dostawców LLM.

Modele AI w służbie przestępców – co z tym zrobić?

Odkrycia naukowców z Uniwersytetu Ben Guriona oraz ostrzeżenia międzynarodowych organizacji czy wielu ekspertów wskazują na pilną potrzebę zwiększenia bezpieczeństwa i wprowadzenia odpowiednich regulacji dotyczących wykorzystania algorytmów sztucznej inteligencji. Bez tego chatboty AI będą stawać się wprost wymarzonym narzędziem dla coraz szerszej grupy przestępców, zagrażając globalnemu bezpieczeństwu.

Źródło: techradar, the Guardian, CNN

Komentarze

0
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.

    Nie dodano jeszcze komentarzy. Bądź pierwszy!

Witaj!

Niedługo wyłaczymy stare logowanie.
Logowanie będzie możliwe tylko przez 1Login.

Połącz konto już teraz.

Zaloguj przez 1Login