niedziela, 17 listopada, 2024
Strona głównaAktualnościZe świataOpenAI w ogniu krytyki. Chodzi o komitet ds. bezpieczeństwa

OpenAI w ogniu krytyki. Chodzi o komitet ds. bezpieczeństwa

OpenAI utworzyło nowy komitet ds. bezpieczeństwa, który ma nadzorować decyzje dotyczące bezpieczeństwa i ochrony w firmie – przekazuje techcrunch.com. Kontrowersje wzbudził fakt, że zespół składa się tylko z osób pracujących „wewnątrz firmy” – dowiadujemy się. 

Jak czytamy, w skład komitetu wchodzą m.in. Sam Altman, dyrektor generalny przedsiębiorstwa, szef systemów bezpieczeństwa Lilian Weng czy główny naukowiec Jakub Pachocki. Zasiadają w nim również członkowie zarządu – Bret Taylor, Adam D’Angelo i Nicole Seligman. 

Źródło przekazuje, że na blogu firmy pojawiła się informacja, zgodnie z którą grupa będzie odpowiedzialna za ocenę procesów bezpieczeństwa i zabezpieczeń OpenAI w ciągu najbliższych 90 dni. Następnie podzieli się ona swoimi ustaleniami i zaleceniami z pełnym zarządem OpenAI w celu „przeglądu”. Opublikuje również aktualizację wszelkich przyjętych sugestii „w sposób zgodny z bezpieczeństwem i ochroną”.

Techcrunch.com donosi, że w ciągu ostatnich kilku miesięcy firma odnotowała kilka „głośnych odejść” z działu bezpieczeństwa swojego zespołu technicznego. Niektórzy z byłych pracowników wyrazili obawy dotyczące „celowego pozbawienia priorytetów bezpieczeństwa sztucznej  inteligencji”. 

Autor artykułu Kyle Wiggers wspomina o Danielu Kokotajlo, który w kwietniu 2024 roku odszedł z zespołu zarządzającego OpenAI. Swoją decyzję motywował tym, że stracił pewność, że firma będzie „zachowywać się odpowiedzialnie” w związku z tworzeniem coraz bardziej rozwiniętych systemów. 

Dziennikarz przekazuje także, że w maju 2024 roku z pracy w firmie zrezygnował Ilya Sutskever, współzałożyciel OpenAI i były główny naukowiec firmy. Powodem miał być pośpiech Altmana związany z wprowadzeniem na rynek produktów „kosztem pracy nad ich bezpieczeństwem”. 

Co więcej, również Jan Leike, były badacz bezpieczeństwa w DeepMind, który podczas pracy w OpenAI był zaangażowany w rozwój narzędzia ChatGPT i jego poprzednika InstructGPT, zrezygnował z pełnionej przez siebie funkcji w firmie Altmana. W serii postów na X komunikował, że nie wierzy w to, że narzędzia przedsiębiorstwa są na drodze do osiągnięcia bezpieczeństwa i ochrony „we właściwy sposób”. 

Redaktor wspomina również o badaczce polityki AI Gretchen Krueger, która opuściła OpenAI w zeszłym tygodniu. Wezwała firmę do poprawy odpowiedzialności i przejrzystości oraz „staranności, z jaką [wykorzystuje] własną technologię”.

Techcrunch.com przekazuje za qz.com, że oprócz wspomnianych osób „co najmniej pięciu najbardziej świadomych procedur bezpieczeństwa pracowników OpenAI odeszło lub zostało zwolnionych od końca 2023 roku (…)”. Z firmą nie są już również związani byli członkowie zarządu – Helen Toner i Tasha McCauley. Stwierdzili oni, że nie wierzą, że pod przywództwem Altmana OpenAI jest wiarygodne w kwestii odpowiedzialności. 

Źródło donosi, że ostatecznie – starając się uniknąć kontrowersji związanych z etyką przedsiębiorstwa – OpenAI zobowiązało się do zatrudnienia zewnętrznych ekspertów ds. „bezpieczeństwa, ochrony i techniki”, którzy będą wspierać prace komisji, w tym weterana cyberbezpieczeństwa Roba Joyce’a i byłego urzędnika Departamentu Sprawiedliwości Stanów Zjednoczonych Johna Carlina. Firma nie udzieliła większej ilości informacji dotyczących „grupy zewnętrznej”. (an)

ZOSTAW KOMENTARZ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj