Caitlin Kalinowski, była szefowa działu robotyki OpenAI, zrezygnowała ze swojej roli po nieco ponad roku pracy w firmie. Kalinowski wyraziła obawy, że wojsko USA może wykorzystywać narzędzia AI firmy do nadzoru krajowego oraz do zautomatyzowanych, celowanych systemów w amerykańskiej broni.
Szefowa inżynierii sprzętowej i robotycznej OpenAI, Caitlin Kalinowski, opuściła firmę AI po pracy od listopada 2024 roku. Kalinowski ogłosiła swoją rezygnację 7 marca, powołując się na obawy dotyczące umowy zawartej między OpenAI a Departamentem Obrony USA w lutym.
Wojsko USA ma wykorzystywać AI do nadzoru krajowego, twierdzi Kalinowski
Według Kalinowski, jej rezygnacja została spowodowana zamiarem Departamentu Obrony USA wykorzystania narzędzi i możliwości AI do prowadzenia nadzoru nad obywatelami USA bez nadzoru sądowego. Była pracownica OpenAI napisała na X, że AI ma kluczową rolę do odegrania w bezpieczeństwie narodowym.
Wyjaśniła, że Departament Obrony USA zamierza wykorzystać AI do nadzoru i autonomicznej broni, z czym się nie zgadza. Powiedziała, że jej decyzja "dotyczyła zasad, a nie ludzi" i że jest dumna z tego, co zespół OpenAI zbudował podczas jej pracy w firmie.
W lutym Pentagon zintensyfikował rozmowy z czołowymi firmami AI na temat wdrażania zautomatyzowanych modeli w systemach tajnych. Cryptopolitan poinformował, że Pentagon forsował rozmowy z Anthropic i OpenAI w celu włączenia narzędzi AI do tajnych sieci wojskowych.
Emil Michael, Dyrektor ds. Technologii Pentagonu, powiedział podczas spotkania w Białym Domu z liderami technologicznymi, że wojsko chce, aby modele AI działały zarówno w sieciach tajnych, jak i niejawnych bez ograniczeń czy restrykcji.
Negocjacje między rządem USA a Anthropic natrafiły na mur, ponieważ jej liderzy wyznaczyli wyraźne granice, że ich technologia nie będzie wykorzystywana do operacji nadzoru krajowego i autonomicznych systemów namierzania broni. Firma zignorowała ultimatum Pentagonu dotyczące usunięcia zabezpieczeń AI pod koniec lutego.
Dyrektor generalny Anthropic, Dario Amodei, nie ustąpił, odmawiając zgody na wykorzystanie technologii firmy w działaniach wojskowych. W odpowiedzi Trump polecił wszystkim agencjom federalnym zaprzestać używania technologii Anthropic pod koniec lutego.
OpenAI nałożyło ograniczenia na wojskowe wdrożenie AI
Departament obrony osiągnął porozumienie z OpenAI, które od tego czasu wywołało krytykę. Sam Altman wspomniał, że umowa wydawała się dość oportunistyczna i wyjaśnił, że firma nałożyła ograniczenia na sposób wykorzystania jej narzędzi AI w operacjach wojskowych.
Jednak zarzut Kalinowski twierdzi, że ogłoszenie było pośpieszne, bez niezbędnych zabezpieczeń. Dodała, że jej odejście było oparte na obawach dotyczących zarządzania, które są zbyt ważne, aby się z nimi spieszyć.
OpenAI potwierdziło odejście Kalinowski w oświadczeniu, ale potwierdziło, że powiązania firmy z departamentami obrony torują drogę do odpowiedzialnego wykorzystania narzędzi AI w bezpieczeństwie narodowym.
W lutym OpenAI ogłosiło, że wdroży niestandardową wersję ChatGPT na bezpiecznej platformie AI dla przedsiębiorstw Departamentu Wojny o nazwie GenAI.mil. Firma zauważyła, że jej współpraca z departamentami wojskowymi i obrony wynika z kluczowej roli AI w ochronie ludzi i zapobieganiu konfliktom.
Tarcia między rządem USA a firmami AI w sprawie wojskowego rozwoju AI doprowadziły również do odejścia kolejnych badaczy z firm AI. Jeden z czołowych badaczy zabezpieczeń Anthropic zrezygnował z oświadczeniem: "Świat jest w niebezpieczeństwie."
Inny badacz OpenAI również zrezygnował ze swojej roli, mówiąc, że technologia AI ma sposób kontrolowania ludzi, którego programiści nie mogą zrozumieć ani zapobiec.
Zoë Hitzig, była badaczka w OpenAI, również opuściła firmę 11 lutego. Zrezygnowała tego samego dnia, w którym OpenAI ogłosiło, że rozpoczęło testowanie reklam w swoim LLM ChatGPT. Twierdziła, że firma AI popełnia ten sam błąd, co Facebook.
Hitzig wyraziła swoje obawy, że wyjątkowa rola ChatGPT jako powiernika głęboko osobistych zwierzeń (obawy medyczne, problemy w związkach, przekonania religijne) sprawia, że targetowanie reklam jest szczególnie ryzykowne.
Źródło: https://www.cryptopolitan.com/openai-robotics-boss-resigns-ai-warning/







