Internet

Fala odejść z OpenAI. W tle kwestie bezpieczeństwa

przeczytasz w 2 min.

OpenAI, światowy lider w rozwoju sztucznej inteligencji, znów znalazł się w centrum uwagi, choć tym razem nie za sprawą ChatGPT. Z firmy odeszło właśnie dwóch specjalistów zespołu Superalignment, zajmującego się zagrożeniami AI. W tle pojawiły się oskarżenia o liczne zaniedbania.

A miało być tak pięknie – w lipcu zeszłego roku Sam Altman, CEO firmy OpenAI, szumnie zapowiedział powołanie zespołu Superalignment, który miał zajmować się bezpieczeństwem superinteligentnych modeli, analizą wynikających z niej zagrożeń oraz sposobami kontroli błyskawicznie rozwijającej się AI. Miał się zajmować, ale od jakiegoś czasu już się nie zajmuje. Dlaczego? Bo zdaniem osób, które właśnie ogłosiły swoją rezygnację i odeszły z firmy, OpenAI utrudniał działanie zespołu. 

OpenAI i zmiana priorytetów

Na czele zespołu Superalignment stał Ilya Sutskever, dyrektor do spraw naukowych w OpenAI, a zarazem jeden ze współzałożycieli firmy oraz Jan Leike, kierownik zespołu dopasowującego i to właśnie oni zapoczątkowali falę odejść z firmy. Wraz z nimi zrezygnowała ponoć część dawnej rady dyrektorów, już wcześniej skonfliktowana z Samem Altmanem, szefem OpenAI, którego pod koniec zeszłego roku odwołano, a który pięć dni później wrócił na swoje stanowisko. Wówczas spekulowano, że powodem zwolnienia Altmana miał być konflikt z Ilyą Sutskeverem dotyczących właśnie kwestii bezpieczeństwa sztucznej inteligencji.

Dziś okazuje, że pomimo szumnych zapowiedzi o przeznaczeniu na badania zespołu do spraw bezpieczeństwa 20 procent zasobów obliczeniowych firmy, ich prośby często były odrzucane, i to nawet te o tylko część tej mocy obliczeniowej. Jak informuje serwis TechCrunch, sytuacja ta doprowadziła do tego, że w połowie maja 2024 szeregi firmy zdecydowało się opuścić kilku czołowych badaczy. Jan Leike publicznie podał swoje powody odejścia, podkreślając różnice w priorytetach z kierownictwem OpenAI, które zamiast skupić się na priorytetach bezpieczeństwa i solidności systemów AI zajmuje się przede wszystkim komercjalizacją swoich produktów. 

Co dalej z bezpieczeństwem AI

Po odejściu Leike'a i Sutskevera zadania Superalignment przejął John Schulman, kolejny współzałożyciel OpenAI. Niestety, już bez dedykowanemu temu zadaniu zespołowi. Jego rolę ma przejąć ponoć luźno powiązana grupa badaczy osadzona w różnych oddziałach firmy. Nietrudno się domyślić jakie obawy rodzi ta decyzja w kwestii skutecznego skupienia się na bezpieczeństwie w rozwijanych systemach AI. I to nawet jeśli część obowiązków Sutskevera i Leike przejmie nasz rodak - Jakub Piechocki, uważany za jednego z najwybitniejszych umysłów swojego pokolenia, który w połowie maja 2024 roku powołany został na stanowisko dyrektora naukowego w OpenAI.

Źródło: TechCrunch

Komentarze

5
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    vacotivus
    9
    No wiadomix, bezpieczeństwo kosztuje. Koszty zmniejszają profity. Ci u góry nie lubią, jak profity spadają... a bezpieczeństwo? Ch** z bezpieczeństwem! PROFITY K***A!
    • avatar
      piomiq
      -1
      "Fala odejść z OpenAI. "
      " firmy odeszło właśnie dwóch specjalistów"
      Normalnie tsunami, a nie tylko fala panie autorze.
      Po takim klikbajcie nie ma co tego czytać.

      Witaj!

      Niedługo wyłaczymy stare logowanie.
      Logowanie będzie możliwe tylko przez 1Login.

      Połącz konto już teraz.

      Zaloguj przez 1Login