Anthropic Opus 4.6 wprowadza zespoły wieloagentowe o wartości 350 miliardów dolarów
Zach Anderson
5 lutego 2026 r., godz. 18:43
Anthropic wprowadza Claude Opus 4.6 z oknem kontekstowym o pojemności 1 miliona tokenów i funkcją zespołów agentów, kilka dni po tym, jak oferta o wartości 350 miliardów dolarów wstrząsnęła rynkiem akcji technologicznych.
W czwartek firma Anthropic wypuściła Claude Opus 4.6, aktualizację modelu, która pięciokrotnie zwiększa okno kontekstowe do miliona tokenów i wprowadza autonomiczną współpracę wielu agentów. Stało się to zaledwie dzień po tym, jak wycena firmy na 350 miliardów dolarów spowodowała wyprzedaż akcji technologicznych.
Ważny jest moment. Inwestorzy, którzy byli zaniepokojeni konkurencją w dziedzinie sztucznej inteligencji, 4 lutego wyprzedali swoje akcje, a teraz Anthropic pokazuje dokładnie, dlaczego zasługuje na tę wycenę: Opus 4.6 osiąga o 144 punkty Elo lepszy wynik niż GPT-5.2 firmy OpenAI w teście GDPval-AA, który mierzy ekonomicznie wartościową pracę umysłową w dziedzinie finansów, prawa i techniki.
Co tak naprawdę się zmieniło?
Trzy aktualizacje są szczególnie istotne dla użytkowników biznesowych.
Okno kontekstowe 1M tokenów (w wersji beta) stanowi pięciokrotny wzrost w porównaniu z 200 000 tokenów w Opus 4.5. W przypadku MRCR v2 – zadania porównywalnego do szukania igły w stogu siana – Opus 4.6 osiąga wynik 76% w porównaniu z 18,5% dla Sonnet 4.5. Nie jest to stopniowa poprawa, ale zupełnie nowa klasa możliwości dla przepływów pracy wymagających intensywnego wykorzystania dokumentów.
Agent Teams w Claude Code umożliwia programistom równoległą pracę wielu agentów AI. Partner wczesnego dostępu, Invariant Labs, poinformował, że Opus 4.6 „w ciągu jednego dnia samodzielnie zamknął 13 spraw i przypisał 12 spraw odpowiednim członkom zespołu, zarządzając organizacją liczącą około 50 osób w 6 repozytoriach”. Model zajmował się zarówno decyzjami produktowymi, jak i organizacyjnymi i wiedział, kiedy należy eskalować sprawę do ludzi.
W celu integracji z biznesem firma Anthropic dodała obsługę PowerPoint (wersja badawcza) oraz ulepszone możliwości Excel. Model może teraz przyjmować dane nieustrukturyzowane, samodzielnie wywnioskować strukturę i wykonywać wieloetapowe zmiany za jednym razem.
Wyniki testów porównawczych
Opus 4.6 przoduje w testach Terminal-Bench 2.0 dotyczących kodowania agentycznego i osiąga najwyższe wyniki w Humanity’s Last Exam, wielodyscyplinarnym teście rozumowania. Pokonał również wszystkie inne modele w teście OpenAI BrowseComp, który mierzy zdolność do lokalizowania trudnych do znalezienia informacji w Internecie.
Poprawa o 190 punktów Elo w porównaniu z poprzednikiem w GDPval-AA sugeruje znaczący postęp w zadaniach, które faktycznie generują dochody: analizie finansowej, ocenie prawnej, dokumentacji technicznej.
Cena pozostaje stabilna na poziomie 5 USD/25 USD za milion tokenów za dane wejściowe/wyjściowe. W przypadku poleceń przekraczających 200 000 tokenów obowiązuje cena premium (10 USD/37,50 USD).
Twierdzenia dotyczące bezpieczeństwa i pozycja konkurencyjna
Anthropic twierdzi, że Opus 4.6 wykazuje „najniższy odsetek nadmiernych odmów spośród wszystkich najnowszych modeli Claude”, zachowując jednocześnie podobną zgodność jak Opus 4.5. Firma dodała sześć nowych sond cyberbezpieczeństwa w celu wykrywania potencjalnych nadużyć, uznając, że ulepszone możliwości modelu są bronią obosieczną.
Dzięki tej wersji Anthropic stawia się w bezpośredniej konkurencji z OpenAI w wyścigu o AI dla przedsiębiorstw. Teraz, gdy również Gemini od Google i Grok od xAI konkurują o kontrakty biznesowe, funkcje wieloagentowe i rozszerzone okno kontekstowe Opus 4.6 stanowią zakład Anthropic, że autonomiczne przepływy pracy AI – a nie tylko chatboty – będą determinować kolejny etap wdrażania tej technologii w biznesie.
Opus 4.6 jest już dostępny na claude.ai, API i głównych platformach chmurowych. Deweloperzy mają do niego dostęp poprzez identyfikator modelu claude-opus-4-6.
Źródło obrazu: Shutterstock
Anthropic zatrudnia Irinę Ghose, weterankę Microsoft India, do kierowania ekspansją w Bengaluru
Caroline Bishop
16 stycznia 2026 r., godz. 04:13
Anthropic mianuje byłą dyrektor zarządzającą Microsoft India Irinę Ghose na stanowisko szefowej swojego pierwszego biura w Indiach, obecnie Claude.ai zajmuje drugie miejsce na świecie pod względem liczby użytkowników w tym kraju.
Anthropic powołało Irinę Ghose, byłą dyrektor zarządzającą Microsoft India, do kierowania ekspansją w tym kraju, ponieważ firma zajmująca się bezpieczeństwem AI przygotowuje się do otwarcia swojego pierwszego biura w Bengaluru.
Ghose ma ponad 30-letnie doświadczenie w rozwijaniu firm technologicznych na rynkach indyjskich. W Microsoft promowała przyjęcie sztucznej inteligencji przez firmy z sektora bankowości, usług finansowych, opieki zdrowotnej, produkcji i administracji publicznej – czyli dokładnie tych sektorów, które Anthropic będzie musiała zdobyć w walce o indyjskie kontrakty biznesowe.
To nie przypadek. Według Anthropic Indie są obecnie drugim co do wielkości rynkiem Claude.ai na świecie. Z czwartego indeksu gospodarczego firmy, opublikowanego 15 stycznia 2026 r., wynika, że indyjscy użytkownicy są bardzo zorientowani technicznie: prawie połowa wszystkich użytkowników Claude.ai w tym kraju koncentruje się na zadaniach komputerowych i matematycznych.
„Indie mają realną szansę wpłynąć na sposób, w jaki sztuczna inteligencja jest tworzona i wdrażana na dużą skalę” – powiedział Ghose w oświadczeniu. „Indyjskie organizacje wykraczają poza eksperymenty i koncentrują się na sztucznej inteligencji stosowanej, gdzie zaufanie, bezpieczeństwo i długoterminowe skutki są równie ważne jak innowacje”.
Przedsiębiorczość na konkurencyjnym rynku
Biuro w Indiach skoncentruje się na trzech priorytetach: koordynacji polityki z urzędnikami państwowymi, partnerstwach akademickich oraz umowach biznesowych z organizacjami zajmującymi się lokalnymi wyzwaniami. Chris Ciauri, dyrektor zarządzający ds. międzynarodowych w Anthropic, jako główny powód powołania Ghose’a podał jego osiągnięcia w zakresie „stymulowania transformacji biznesowej”.
Firma Anthropic, założona w 2021 roku przez byłych kierowników OpenAI, Dario i Danielę Amodei, pozycjonuje się jako alternatywa dla innych graczy w wyścigu AI, skupiając się na bezpieczeństwie. Nacisk, jaki firma kładzie na interpretowalne i sterowalne systemy AI, może spodobać się indyjskim regulatorom, którzy stają się coraz bardziej ostrożni w stosowaniu AI.
Rozbudowa w Bengaluru następuje w aktywnym okresie dla Anthropic. 15 stycznia firma ogłosiła, że udaremniła opisane przez badaczy „światowe pierwszeństwo w dziedzinie cyberataków AI”, chociaż w tym samym tygodniu pojawiła się również krytyka dotycząca luki w zabezpieczeniach interfejsu API plików produktu Cowork.
Wyzwaniem dla Ghose’a będzie przełożenie przesłania Anthropic dotyczącego bezpieczeństwa na umowy biznesowe w zróżnicowanym środowisku językowym i regulacyjnym Indii – rynku, na którym Microsoft, Google i lokalni gracze już agresywnie konkurują o budżety przeznaczone na sztuczną inteligencję.
Źródło zdjęcia: Shutterstock
Anthropic wdraża protokoły AI Safety Level 3 w celu zwiększenia bezpieczeństwa
Jessie A Ellis
31 Oct 2025 11:40
Anthropic aktywował standardy AI Safety Level 3 wraz z wprowadzeniem Claude Opus 4, aby wzmocnić środki bezpieczeństwa i wdrażania, szczególnie w przypadku zagrożeń CBRN.
Anthropic, wiodąca firma zajmująca się badaniami nad sztuczną inteligencją, ogłosiła aktywację swoich standardów wdrażania i bezpieczeństwa AI Safety Level 3 (ASL-3). Posunięcie to jest częścią polityki odpowiedzialnego skalowania (RSP) firmy i zbiega się z uruchomieniem Claude Opus 4, powiedział Anthropic. Anthropic.
Zwiększone środki bezpieczeństwa
Standard bezpieczeństwa ASL-3 wprowadza zaawansowane wewnętrzne środki bezpieczeństwa, aby zapobiec kradzieży wzorców masy, które mają kluczowe znaczenie dla inteligencji i zdolności sztucznej inteligencji. W szczególności środki te mają na celu przeciwdziałanie zagrożeniom ze strony zaawansowanych podmiotów niepaństwowych. Standardy wdrażania mają na celu zmniejszenie ryzyka niewłaściwego wykorzystania SI do opracowywania lub pozyskiwania broni chemicznej, biologicznej, radiologicznej i jądrowej (CBRN).
Proaktywne wdrażanie
Chociaż nie ustalono jednoznacznie, że Claude Opus 4 wymaga ochrony ASL-3, decyzja o wdrożeniu tych środków została podjęta proaktywnie. Ten środek ostrożności pozwala firmie Anthropic testować i udoskonalać swoje protokoły bezpieczeństwa w odpowiedzi na zmieniające się możliwości modeli sztucznej inteligencji. Firma wykluczyła potrzebę stosowania standardów ASL-4 dla Claude Opus 4 i ASL-3 dla Claude Sonnet 4.
Koncentracja na wdrożeniu i bezpieczeństwie
Środki wdrożeniowe ASL-3 są specjalnie dostosowane, aby uniemożliwić modelowi wspomaganie zadań związanych z CBRN. Środki te obejmują ograniczenie “uniwersalnych jailbreaków”, które są systematycznymi atakami omijającymi zabezpieczenia w celu wydobycia poufnych informacji. Podejście Anthropic obejmuje uczynienie systemu bardziej odpornym na jailbreaki, wykrywanie ich, gdy się pojawią i iteracyjne ulepszanie zabezpieczeń.
Kontrole bezpieczeństwa koncentrują się na ochronie wag modeli za pomocą ponad 100 różnych środków bezpieczeństwa, w tym dwustronnej autoryzacji dostępu i ulepszonych protokołów kontroli zmian. Unikalnym aspektem tych kontroli jest wdrożenie kontroli przepustowości wyjścia, które ograniczają przepływ danych z bezpiecznych środowisk, aby zapobiec nieautoryzowanemu dostępowi do wag modeli.
Ciągłe doskonalenie
Anthropic podkreśla, że wdrożenie standardów ASL-3 jest krokiem w kierunku ciągłego doskonalenia bezpieczeństwa sztucznej inteligencji. Firma nadal ocenia możliwości Claude Opus 4 i może dostosować swoje środki bezpieczeństwa w oparciu o nowe spostrzeżenia i krajobrazy zagrożeń. Współpracuje z innymi interesariuszami z branży sztucznej inteligencji, rządem i społeczeństwem obywatelskim w celu ulepszenia tych środków ochronnych.
Kompleksowy raport firmy Anthropic zawiera więcej szczegółów na temat uzasadnienia i specyfiki tych nowo wdrożonych środków i ma służyć jako źródło informacji dla innych organizacji w sektorze sztucznej inteligencji.
Źródło obrazu: Shutterstock