CTO OpenAI Mira Murati dołącza do fali odejść: co stoi za ostatnimi odejściami?

Written by
Translated by
Written on Sep 26, 2024
Reading time 5 minutes
  • Chief research officer Bob McGrew and vice president of research Barret Zoph also announced their exits.
  • Leadership exits come amid OpenAI’s transition to a more traditional for-profit tech company.
  • Earlier, a string of exiting executives and researchers questioned OpenAI's safety standards.

Dyrektor ds. technologii w OpenAI, Mira Murati, ogłosiła w środę swoją rezygnację, co oznacza kolejne znaczące odejście ze stanowiska w związku z trwającymi w firmie poważnymi zmianami organizacyjnymi.

Murati, kluczowa postać stojąca za rozwojem ChatGPT i DALL-E, w notatce do zespołu OpenAI opublikowanej na X (dawniej Twitter) powiedział:

Moje sześć i pół roku w zespole OpenAI było niezwykłym przywilejem. Nigdy nie ma idealnego momentu, aby odejść od miejsca, które się ceni, ale ten moment wydaje się właściwy.

Odejście Murati jest szczególnie szokujące, ponieważ została wybrana na następczynię Sama Altmana na stanowisku tymczasowego dyrektora generalnego w listopadzie ubiegłego roku. Altman został na krótko odsunięty od stanowiska, a następnie w ciągu kilku dni przywrócony na swoje stanowisko.

Pełni również funkcję ważnej twarzy publicznej tego start-upu, regularnie pojawiając się na spotkaniach, aby omówić jego technologię.

Jej odejście następuje po serii głośnych rezygnacji osób na wysokich stanowiskach w firmie, co jest sygnałem szerszych zmian w kierownictwie OpenAI, które podąża kontrowersyjną ścieżką do rentowności.

Odejście Miry Murati nie jest odosobnionym przypadkiem. Kilka godzin po jej rezygnacji dyrektor ds. badań OpenAI Bob McGrew i wiceprezes ds. badań Barret Zoph również ogłosili swoje plany opuszczenia firmy.

We wpisach na X McGrew zauważył, że „nadszedł czas, żebym zrobił sobie przerwę”, a Zoph podzielił się informacją, że „bada nowe możliwości”.

Wyjścia pokrywają się z planami firmy, aby uczynić ją rentowną

Copy link to section

Do odejść doszło po burzliwym roku dla OpenAI, naznaczonym nagłym usunięciem ze stanowiska dyrektora generalnego Sama Altmana i przywróceniem go na stanowisko zaledwie pięć dni później.

„New York Times” donosi, że odejście ze stanowiska kierowniczego w OpenAI zbiega się z działaniami Altmana i jego zespołu zmierzającymi do przekształcenia modelu biznesowego firmy.

Choć OpenAI zostało pierwotnie założone jako laboratorium badawcze non-profit, ostatnie działania wskazują na zmianę nastawienia na zwiększanie przychodów i skalowanie działalności.

Obecnie kontrolę nad OpenAI sprawuje zarząd organizacji non-profit, ale według doniesień firma rozważa możliwość przejścia do bardziej tradycyjnej, nastawionej na zysk struktury do przyszłego roku.

Jak donosi Bloomberg i inni, w ramach tej strategii OpenAI prowadzi rozmowy na temat nowej rundy inwestycji, która może wycenić firmę nawet na 150 miliardów dolarów.

Wśród potencjalnych inwestorów znajdują się takie znane firmy jak Microsoft, Nvidia, Apple, Tiger Global i MGX, firma inwestycyjna z branży technologicznej ze Zjednoczonych Emiratów Arabskich.

Poprzednia wycena OpenAI wynosiła 80 miliardów dolarów, co podkreśla szybki rozwój firmy i rosnące zainteresowanie ze strony globalnych inwestorów.

Pomimo znaczących osiągnięć, w tym powszechnego sukcesu ChatGPT i DALL-E, koszty OpenAI przewyższają przychody.

Jak donosi NYT, firma generuje rocznie ponad 3 miliardy dolarów sprzedaży, ale wydaje około 7 miliardów dolarów rocznie.

Niedobór środków finansowych zwiększył zapotrzebowanie firmy na dodatkowe finansowanie, co skłoniło do rozpoczęcia rozmów inwestycyjnych.

„Błyszczące produkty” w kontekście obaw o bezpieczeństwo

Copy link to section

W maju dwie kluczowe postacie – Ilja Suckewer i Jan Leike – odeszły z firmy, która kierowała zespołem Superalignment firmy OpenAI odpowiedzialnym za bezpieczeństwo ogólnej sztucznej inteligencji (AGI).

Leike później skrytykował OpenAI za priorytetowe traktowanie „błyszczących produktów” kosztem kwestii bezpieczeństwa i stwierdził, że ograniczenia zasobów utrudniają zespołowi dokończenie kluczowych badań.

Była pracownica naukowa ds. polityki publicznej Gretchen Krueger, która niedawno zrezygnowała z pracy w OpenAI, wyraziła obawy dotyczące braku przejrzystości i odpowiedzialności w organizacji.

Podkreśliła potrzebę usprawnienia procesów decyzyjnych, ostrożnego wykorzystania technologii sztucznej inteligencji i łagodzenia wpływu na nierówności, prawa i środowisko.

„Są to obawy podzielane przez wiele osób i społeczności i nie należy ich błędnie interpretować jako wąskich lub spekulatywnych” – napisała Krueger w swojej nocie rezygnacyjnej.

Odeszli z niego dwaj inni badacze ds. bezpieczeństwa – Daniel Kokotajlo i William Saunders – z podobnych powodów.

Kokotajlo powiedział, że odszedł, ponieważ „stracił pewność, że (OpenAI) będzie zachowywać się odpowiedzialnie w czasach AGI”.

W sierpniu John Schulman, inny współzałożyciel OpenAI, zrezygnował z pracy, aby dołączyć do konkurencyjnej firmy zajmującej się sztuczną inteligencją, Anthropic.

W miarę jak OpenAI staje się firmą nastawioną na zysk, napięcie między etycznymi zasadami rozwoju sztucznej inteligencji a interesami komercyjnymi pozostaje punktem spornym zarówno w organizacji, jak i w szerszej branży.

Po odejściu wybitnych postaci, takich jak Murati, Sutskever i Schulman, świat sztucznej inteligencji będzie uważnie śledzić rozwój OpenAI w nadchodzących miesiącach.

Podczas gdy firma wciąż poszerza granice możliwości sztucznej inteligencji, wewnętrzna dynamika firmy i zmiany w kierownictwie sugerują, że jej dalsza droga może nie być pozbawiona wyzwań.

Ten artykuł został przetłumaczony z języka angielskiego przy pomocy narzędzi AI, a następnie zweryfikowany i zredagowany przez lokalnego tłumacza.