Internet

Fala odejść z OpenAI. W tle kwestie bezpieczeństwa

przeczytasz w 2 min.

OpenAI, światowy lider w rozwoju sztucznej inteligencji, znów znalazł się w centrum uwagi, choć tym razem nie za sprawą ChatGPT. Z firmy odeszło właśnie dwóch specjalistów zespołu Superalignment, zajmującego się zagrożeniami AI. W tle pojawiły się oskarżenia o liczne zaniedbania.

A miało być tak pięknie – w lipcu zeszłego roku Sam Altman, CEO firmy OpenAI, szumnie zapowiedział powołanie zespołu Superalignment, który miał zajmować się bezpieczeństwem superinteligentnych modeli, analizą wynikających z niej zagrożeń oraz sposobami kontroli błyskawicznie rozwijającej się AI. Miał się zajmować, ale od jakiegoś czasu już się nie zajmuje. Dlaczego? Bo zdaniem osób, które właśnie ogłosiły swoją rezygnację i odeszły z firmy, OpenAI utrudniał działanie zespołu. 

OpenAI i zmiana priorytetów

Na czele zespołu Superalignment stał Ilya Sutskever, dyrektor do spraw naukowych w OpenAI, a zarazem jeden ze współzałożycieli firmy oraz Jan Leike, kierownik zespołu dopasowującego i to właśnie oni zapoczątkowali falę odejść z firmy. Wraz z nimi zrezygnowała ponoć część dawnej rady dyrektorów, już wcześniej skonfliktowana z Samem Altmanem, szefem OpenAI, którego pod koniec zeszłego roku odwołano, a który pięć dni później wrócił na swoje stanowisko. Wówczas spekulowano, że powodem zwolnienia Altmana miał być konflikt z Ilyą Sutskeverem dotyczących właśnie kwestii bezpieczeństwa sztucznej inteligencji.

Dziś okazuje, że pomimo szumnych zapowiedzi o przeznaczeniu na badania zespołu do spraw bezpieczeństwa 20 procent zasobów obliczeniowych firmy, ich prośby często były odrzucane, i to nawet te o tylko część tej mocy obliczeniowej. Jak informuje serwis TechCrunch, sytuacja ta doprowadziła do tego, że w połowie maja 2024 szeregi firmy zdecydowało się opuścić kilku czołowych badaczy. Jan Leike publicznie podał swoje powody odejścia, podkreślając różnice w priorytetach z kierownictwem OpenAI, które zamiast skupić się na priorytetach bezpieczeństwa i solidności systemów AI zajmuje się przede wszystkim komercjalizacją swoich produktów. 

Co dalej z bezpieczeństwem AI

Po odejściu Leike'a i Sutskevera zadania Superalignment przejął John Schulman, kolejny współzałożyciel OpenAI. Niestety, już bez dedykowanemu temu zadaniu zespołowi. Jego rolę ma przejąć ponoć luźno powiązana grupa badaczy osadzona w różnych oddziałach firmy. Nietrudno się domyślić jakie obawy rodzi ta decyzja w kwestii skutecznego skupienia się na bezpieczeństwie w rozwijanych systemach AI. I to nawet jeśli część obowiązków Sutskevera i Leike przejmie nasz rodak - Jakub Piechocki, uważany za jednego z najwybitniejszych umysłów swojego pokolenia, który w połowie maja 2024 roku powołany został na stanowisko dyrektora naukowego w OpenAI.

Źródło: TechCrunch

Komentarze

5
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    vacotivus
    9
    No wiadomix, bezpieczeństwo kosztuje. Koszty zmniejszają profity. Ci u góry nie lubią, jak profity spadają... a bezpieczeństwo? Ch** z bezpieczeństwem! PROFITY K***A!
    • avatar
      piomiq
      -1
      "Fala odejść z OpenAI. "
      " firmy odeszło właśnie dwóch specjalistów"
      Normalnie tsunami, a nie tylko fala panie autorze.
      Po takim klikbajcie nie ma co tego czytać.