
Zaledwie kilka dni temu informowaliśmy o bezprecedensowej decyzji amerykańskiej administracji, która odcięła firmę Anthropic od rządowych zleceń na rzecz OpenAI. Okazuje się jednak, iż całkowite odcięcie wojska od zaawansowanych modeli językowych nie jest tak proste, jak napisanie dekretu. Z raportu „Wall Street Journal” wynika, iż zaledwie kilka godzin po nałożeniu zakazu, amerykańskie dowództwo wykorzystało model Claude do krytycznych operacji na Bliskim Wschodzie.
Sytuacja na linii Anthropic – Waszyngton to w tej chwili jeden z najbardziej fascynujących konfliktów na styku technologii i bezpieczeństwa narodowego. Z jednej strony Donald Trump publicznie zakazał korzystania z narzędzi tej firmy, nazywając jej twórców „lewicowymi wariatami”. Z drugiej – jak ustalił „Wall Street Journal” – Centralne Dowództwo USA (CENTCOM) odegrało kluczową rolę w niedawnych operacjach wojskowych w Iranie, opierając się właśnie na algorytmach Anthropic.
Claude na wirtualnym polu bitwy
Do czego dokładnie armia wykorzystuje zaawansowanego chatbota? Według źródeł dziennika, sztuczna inteligencja Claude służyła wojskowym ekspertom do błyskawicznej oceny napływających danych wywiadowczych, precyzyjnej identyfikacji celów oraz przeprowadzania zaawansowanych symulacji scenariuszy bitewnych. Wcześniej podobne zastosowanie tej technologii odnotowano podczas operacji schwytania Nicolasa Maduro w Wenezueli.
Dlaczego armia skorzystała z zakazanego narzędzia? Odpowiedź kryje się w lukach prawnych i technologicznej rzeczywistości. Model Claude okazał się na tyle głęboko zintegrowany z niejawnymi systemami Departamentu Obrony (wartość kontraktu szacowano na 200 mln dolarów), iż administracja musiała wyznaczyć sześciomiesięczny okres przejściowy na całkowite wycofanie tej technologii z użycia. W sytuacjach kryzysowych wojsko wciąż sięga po to, co działa najlepiej.
Etyka AI kontra wymogi Pentagonu
U podstaw całego zamieszania nie leży wcale technologia, ale etyka. Szef Anthropic, Dario Amodei, postawił Pentagonowi twarde warunki dalszej współpracy. Firma zażądała wprowadzenia do kontraktu zapisów, które kategorycznie zabraniałyby wykorzystywania modelu Claude do masowej inwigilacji amerykańskich obywateli oraz do zasilania w pełni autonomicznej broni (systemów podejmujących decyzję o ataku bez udziału człowieka). Według zarządu firmy, obecna generacja AI nie jest na tyle niezawodna, by powierzać jej ludzkie życie.
Pentagon odrzucił te żądania. Departament Obrony stanął na stanowisku, iż prywatna korporacja nie będzie dyktować siłom zbrojnym USA zasad użycia systemu na polu walki. Wojsko zagroziło wręcz wpisaniem Anthropic na listę podmiotów stanowiących „zagrożenie dla łańcucha dostaw” (co jest sankcją stosowaną zwykle wobec firm z wrogich państw), po czym ostatecznie wycofało się z kontraktu.
„Nigdy nie zgłaszaliśmy sprzeciwu wobec konkretnych operacji wojskowych ani nie próbowaliśmy doraźnie ograniczać wykorzystania naszej technologii. Rozumiemy, iż decyzje podejmuje Departament Obrony, a nie firmy prywatne” – napisał w oświadczeniu Amodei, przypominając jednocześnie, iż jego firma w imię bezpieczeństwa USA zrezygnowała wcześniej z niezwykle lukratywnych kontraktów w Chinach.
Rządowe przejęcie kontroli?
Najbardziej niepokojącym aspektem tej sprawy dla całej branży technologicznej jest jednak as w rękawie, którym grozi amerykańska administracja. Sekretarz obrony Pete Hegseth oraz sam Donald Trump zasugerowali, iż wobec Anthropic może zostać zastosowana Ustawa o produkcji obronnej (Defense Production Act).
To potężne narzędzie prawne, które pozwala prezydentowi USA uznać dany produkt za absolutnie krytyczny dla bezpieczeństwa narodowego i wymusić na prywatnej firmie świadczenie usług na rzecz rządu – pod groźbą poważnych konsekwencji cywilnych i karnych.
Zastosowanie tego prawa wobec twórców sztucznej inteligencji stworzyłoby niezwykle niebezpieczny precedens. Oznaczałoby to, iż firmy technologiczne rozwijające LLM-y mogą w dowolnej chwili zostać prawnie zmuszone do udostępnienia swoich modeli na potrzeby wojska, niezależnie od własnego regulaminu, obiekcji moralnych czy obaw o bezpieczeństwo samej technologii.
Wstrząs w branży AI. Rząd USA odcina firmę Anthropic, a OpenAI przejmuje zlecenia
Jeśli artykuł Oficjalny ban to za mało. Wojsko USA przez cały czas korzysta z „zakazanej” sztucznej inteligencji od Anthropic nie wygląda prawidłowo w Twoim czytniku RSS, to zobacz go na iMagazine.

1 godzina temu











![Małaszewicze. Wyciek oleju na terminalu [ZDJĘCIA]](https://static2.slowopodlasia.pl/data/articles/xga-4x3-malszewicze-wyciek-oleju-na-terminalu-zdjecia-1772450674.jpg)

