Inwestor kryptowalutowy zyskuje 1,5 miliona dolarów dzięki anomalii Binance wynoszącej 26 milionów dolarów
Trader kryptowalutowy, Vida, zrealizował ponad 1,5 miliona dolarów zysków po zauważeniu anomalnej ściany zleceń kupna na Binance dla mało znanego tokena BROCCOLI714 w Nowy Rok.
Vida, który udostępnił szczegółowe dzienniki handlu na platformie mediów społecznościowych X, powiedział, że początkowo traktowali ten ruch jako prawdopodobne zhakowane konto lub błąd w tworzeniu rynku.
Z tego powodu ujawnił, że handlował wokół anomalii w dwóch fazach, najpierw wychodząc z dużej ekspozycji spot i futures na pompę, a później skracając token.
Binance nie skomentowało publicznie tego incydentu i nie odpowiedziało jeszcze na żadne pytania. CryptoSlate’s prośba o komentarz w momencie publikacji.
Anomalia 26 milionów dolarów
Chaos zaczął się nie od nagłówka, ale od spreadu.
Vida ujawnił, że prowadził złożoną książkę arbitrażu stopy finansowania, w której jego algorytm utrzymywał krótką pozycję w wysokości 500 000 USD w kontraktach terminowych BROCCOLI714 na Binance, aby zabezpieczyć odpowiednią długą pozycję na rynku spot.
Strategia ta zazwyczaj przynosi stałe zyski o niskim ryzyku poprzez zbieranie opłat za finansowanie płaconych przez spekulantów poszukujących dźwigni finansowej.
Model ten uległ jednak awarii o 4 rano w Nowy Rok.
“Mój krótkoterminowy program ostrzegania o gwałtownych wzrostach i program ostrzegania o spreadach spot-futures działały jak szalone”, Vida powiedział. “Rzuciłem się do komputera. Moim odruchem było natychmiastowe zamknięcie pozycji arbitrażowej”.
Rynek wykazywał oznaki poważnej dyslokacji. Pierwotne zabezpieczenie Vidy w wysokości 500 000 USD przerodziło się w chaotyczną nierównowagę: pozycja spot wzrosła do 800 000 USD, podczas gdy pozycja futures była znacznie opóźniona. Natychmiastowe zamknięcie pozycji przyniosłoby zysk w wysokości 300 000 USD.
Jednak Vida wahał się, ponieważ akcja cenowa wydawała się niewłaściwa. Zauważył:
“Historycznie rzecz biorąc, żaden wieloryb nie ignoruje spreadu i gwałtownie pompuje spot w ten sposób”.
Szybki skan księgi zleceń ujawnił źródło zakłóceń. Na rynku spot Binance pojedynczy podmiot złożył zlecenia kupna o wartości prawie 26 milionów dolarów w granicach 10% bieżącej ceny. Z kolei rynek kontraktów terminowych wykazywał niewielką głębokość wynoszącą zaledwie 50 000 USD.
W przypadku tokena o kapitalizacji rynkowej wynoszącej zaledwie 40 milionów dolarów, ściana ofert o wartości 26 milionów dolarów stanowi statystyczną niemożliwość dla racjonalnego podmiotu.
Inwestorzy instytucjonalni lub inni wyrafinowani handlowcy nie dokonują wpisów, błyskając całym swoim kapitałem po stronie oferty. Działają po cichu, wykorzystując algorytmy średniej ceny ważonej czasem (TWAP) do maskowania swoich zamiarów.
stwierdził Vida:
“Uznałem, że musiało to być zhakowane konto lub błąd w programie do tworzenia rynku. Żaden wieloryb nie jest na tyle głupi, by robić takie akcje charytatywne. Żaden wieloryb nie gra w ten sposób na rynku spot”.
Oszukiwanie wyłącznika automatycznego
Vida ujawnił, że natychmiast zdał sobie sprawę z implikacji sytuacji, ponieważ oznaczało to, że “atakujący” zamierzał pompować cenę spot, aby podnieść wartość swoich udziałów przed wyjściem.
Tak więc, dopóki utrzymywał się mur kupna o wartości 26 milionów dolarów, cena BROCCOLI714 mogła podążać tylko w jednym kierunku.
W rezultacie trader przestawił się z neutralnej strategii arbitrażowej na kierunkową pozycję długą.
Jednak sama prędkość wzrostu cen spot uruchomiła automatyczne wyłączniki Binance. Te mechanizmy ochrony przed zmiennością zamrażają górne limity cen kontraktów, aby zapobiec kaskadom likwidacji podczas flash crashes lub pomp.
Podczas gdy cena spot przebiła poziom 0,07 USD, silnik kontraktów terminowych Binance ograniczył kontrakty do 0,038 USD. Stworzyło to ogromną, sztuczną rozbieżność między tymi dwoma rynkami.
Inni traderzy obserwujący giełdę Bybit widzieli kontrakty handlujące swobodnie po 0,055 USD, potwierdzając, że tłumienie pozostało lokalne dla silnika ryzyka Binance.
W rezultacie Vida wdrożył strategię snajperską o wysokiej częstotliwości, która pozwoliła mu uderzyć w terminal wykonawczy, próbując otwierać długie pozycje co 5 do 10 sekund.
Handel Broccoli714 Vidy na Binance (Źródło: Vida)
Dodał, że obstawia, iż wyłącznik zostanie chwilowo zniesiony, gdy cena spot ustabilizuje się na wyższych poziomach.
wyjaśnił:
“Jak tylko zamówienie się powiodło, oznaczało to, że czas mechanizmu wyłącznika minął. Z powodzeniem czekałem na tę okazję”.
Strategia ta zadziałała, ponieważ Vida zdołał zgromadzić 200 000 USD na długich pozycjach przy koszcie wejścia wynoszącym około 0,046 USD. Teraz podążał za tajemniczym oferentem o wartości 26 milionów dolarów, skutecznie wyprzedzając nieuniknioną korektę.
Znikająca oferta
Wynikająca z tego transakcja zależała teraz od gry w kurczaka z działem kontroli ryzyka Binance.
Uczestnicy rynku wiedzą, że giełdy monitorują anomalne przepływy. Oferta w wysokości 26 milionów dolarów na niepłynną monetę wywołuje wewnętrzne czerwone flagi. Gdyby Binance oznaczyło konto jako zagrożone lub w wyniku nieprawidłowego działania algorytmu, zamroziłoby środki i wycofało zlecenia.
Vida obserwował księgę zamówień na dedykowanym monitorze. W pewnym momencie ogromna ściana kupna zamigotała i zniknęła, by pojawić się ponownie minutę później, podbijając cenę do 0,15 USD. To nieregularne zachowanie wskazywało, że zbliżał się koniec transakcji.
zauważył Vida:
“Wiedziałem, że ostateczny wynik będzie zdecydowanie całkowitą stratą. Gdy konto jest kontrolowane pod kątem ryzyka i oferty są wycofywane, Broccoli ulega awarii”.
O 4:20 Vida dokonał całkowitego wyjścia. Sprzedał pierwotne udziały, zabezpieczenie arbitrażowe i nowo nabyte spekulacyjne pozycje długie. Ten szaleńczy szał sprzedaży zlikwidował z rynku około 1,5 miliona dolarów, zapewniając ogromny zysk z kapitału początkowego w wysokości około 400 000 dolarów.
Dziesięć minut później przepowiednia się spełniła. O 4:31 ściana kupna o wartości 26 milionów dolarów zniknęła na stałe. Wsparcie wyparowało.
Wyczuwając zmianę, Vida zmieniła pozycję na krótką i otworzyła krótką pozycję o wartości 400 000 USD po cenie 0,065 USD.
Bez sztucznej presji zakupowej grawitacja zaczęła działać. Token spadł, ostatecznie znajdując dno w pobliżu 0,02 USD. Trader pokrył krótką pozycję, przechwytując cały cykl życia pump-and-dump.
Binance twierdzi, że nie ma jeszcze dowodów na włamanie, ale pytania pozostają
Następstwa tego zdarzenia pozostawiają na rynku więcej pytań niż odpowiedzi. W świecie aktywów cyfrowych o wysokiej stawce pieniądze rzadko znikają bez śladu, ale to wydarzenie nosi znamiona chaotycznego transferu bogactwa od jednego podmiotu do kilku oportunistycznych.
Vida twierdzi jednak, że Binance poinformowało, że wstępne wewnętrzne dochodzenie nie wykazało “żadnych wyraźnych oznak” naruszenia platformy.
Według niego giełda stwierdziła:
“Na podstawie przeglądu istniejących danych wewnętrznych nie znaleziono jak dotąd wyraźnych oznak ataków hakerskich. Platforma nie otrzymała żadnych powiązanych informacji zwrotnych dotyczących skradzionych kont za pośrednictwem obsługi klienta lub dużych kanałów komunikacji z klientami”.
To zaprzeczenie eliminuje najwygodniejszą narrację, czyli włamanie, i pozostawia bardziej kłopotliwą: niekompetencję. Jeśli nie doszło do kradzieży, to animator rynku lub zamożna osoba fizyczna celowo lub przypadkowo spaliła dziesiątki milionów dolarów, aby pompować memową monetę.
Zaprzeczenie rodzi również szersze pytania o to, jak zachowują się wyłączniki giełdowe, wewnętrzne kontrole ryzyka i spready międzyrynkowe, gdy płynność i automatyzacja zderzają się w niejasnych zakątkach rynku.
W momencie publikacji prasowej BROCCOLI714 handluje na poziomach sprzed pompowania. Ściana o wartości 26 milionów dolarów nadal nie istnieje, ale dla tych, którzy obudzili się o 4 rano, rok 2026 przyniósł już najbardziej dochodową niespodziankę.
Wspomniane w tym artykule
Sei Network osiąga rekordowy wzrost dzięki nowej infrastrukturze i kamieniom milowym NFT
Timothy Morano
29 Dec 2025 19:34
Sei Network odnotowuje znaczny wzrost dziennych adresów i wolumenów transakcji, wprowadza nową infrastrukturę i ustanawia rekordy handlowe NFT, podkreślając silny rozwój ekosystemu.
Sei Network wykazała znaczny wzrost i innowacje w 2025 r. i zaznaczyła kluczowy rok znaczącym postępem w infrastrukturze i handlu NFT, zgodnie z Oficjalny blog Sei. Ekosystem odnotował znaczny wzrost aktywności, wspierany przez rozwój nowej infrastruktury i rekordowe wyniki na rynku NFT.
Rozwój sieci i infrastruktury
Według raportu Messariego, w trzecim kwartale 2025 r. sieć Sei wykazała 93,5% wzrost liczby aktywnych adresów dziennie i 87% wzrost liczby codziennych transakcji. Jest to piąty z rzędu kwartał wzrostu, co wskazuje na ciągłą adopcję w miarę rozwoju infrastruktury sieci.
Aby wesprzeć ten wzrost, Sei zaprezentował Capital System of the Market Infrastructure Grid, strategiczne ramy podkreślające kluczowych uczestników ekosystemu, takich jak Circle, PayPal i liderów interoperacyjności, takich jak LayerZero. Inicjatywa ta ma na celu zapewnienie kompleksowej mapy infrastruktury kapitałowej w ramach ekosystemu Sei, ułatwiając firmom i instytucjom podejmowanie decyzji o jej wdrożeniu.
Rekordowy wolumen obrotu NFT
Sakura Nexus, ważny projekt w ekosystemie Sei, zakończył rundę Genesis 2 z nowym rekordem wolumenu handlu NFT w Magic Eden. Ten kamień milowy odzwierciedla silne zaangażowanie społeczności i popyt na wysokiej jakości cyfrowe przedmioty kolekcjonerskie, jeszcze bardziej umacniając pozycję Sei na rynku NFT.
Gwałtowny wzrost aktywności NFT jest uzupełniany przez wolumen obrotu spot Sei, który przekroczył 4,6 miliarda dolarów w 3. kwartale 2025 roku. Wzrost ten jest napędzany przez głównych automatycznych animatorów rynku (AMM) i pojawienie się centralnych ksiąg zleceń z limitem onchain (CLOB), co wskazuje na dojrzałą strukturę rynku z solidną płynnością i głębokością rynku instytucjonalnego.
Kompleksowa analiza ekosystemu
Raport Dune’s 2025 Multichain zapewnia szczegółową analizę stanu ekosystemu Sei, koncentrując się na kluczowych wektorach wzrostu i wzorcach użytkowania. Raport dostarcza cennych informacji dla deweloperów i interesariuszy oraz pokazuje kamienie milowe sieci i zachowania użytkowników w ciągu roku.
Ponadto Sei Development Foundation opublikowała artykuł opiniotwórczy zatytułowany “Waking the Dead Capital”, który bada potencjał wprowadzenia niepłynnych tradycyjnych aktywów do łańcucha. Analiza ta podkreśla rolę sieci w łączeniu odizolowanej wartości ze świata fizycznego z szybkością i dostępnością rynku cyfrowego.
Ogólnie rzecz biorąc, wyniki Sei Network w 2025 r. odzwierciedlają solidny rozwój ekosystemu i strategiczne inicjatywy mające na celu stymulowanie zrównoważonego wzrostu i innowacji.
Źródło zdjęcia: Shutterstock
NVIDIA ulepsza kwantową korekcję błędów dzięki dekodowaniu w czasie rzeczywistym i wnioskowaniu AI
Alvin Lang
17 Dec 2025 22:13
NVIDIA CUDA-Q QEC 0.5.0 wprowadza dekodowanie w czasie rzeczywistym, akcelerowane przez GPU dekodery algorytmiczne i ulepszenia wnioskowania AI, mające na celu zwiększenie możliwości korekcji błędów w obliczeniach kwantowych.
Firma NVIDIA udostępniła wersję 0.5.0 swojej platformy CUDA-Q Quantum Error Correction (QEC), będącej ważnym krokiem w kierunku odpornych na błędy obliczeń kwantowych. Aktualizacja ta wprowadza szereg usprawnień, w tym możliwości dekodowania w czasie rzeczywistym, akcelerowane przez GPU dekodery algorytmiczne i integrację sztucznej inteligencji, powiedział NVIDIA.
Postępy w dekodowaniu w czasie rzeczywistym
Dekodowanie w czasie rzeczywistym jest niezbędne do utrzymania integralności obliczeń kwantowych poprzez stosowanie poprawek w czasie koherencji jednostki przetwarzania kwantowego (QPU). Nowa wersja CUDA-Q QEC pozwala dekoderom o niskim opóźnieniu działać zarówno online z rzeczywistymi urządzeniami kwantowymi, jak i offline z symulowanymi procesorami. Zapobiega to akumulacji błędów, zwiększając wiarygodność wyników kwantowych.
Proces dekodowania w czasie rzeczywistym przebiega w czterech etapach: generowanie modelu błędu detektora (DEM), konfiguracja dekodera, ładowanie i inicjalizacja dekodera oraz dekodowanie w czasie rzeczywistym. To ustrukturyzowane podejście umożliwia badaczom skuteczne scharakteryzowanie błędów urządzenia i zastosowanie poprawek w razie potrzeby.
Algorytmy akcelerowane przez GPU i wnioskowanie oparte na sztucznej inteligencji
Jednym z najważniejszych elementów nowej wersji jest wprowadzenie akcelerowanych przez GPU dekoderów algorytmicznych, takich jak algorytm RelayBP, który rozwiązuje ograniczenia tradycyjnych dekoderów propagacji przekonań. RelayBP wykorzystuje mocne strony pamięci do kontrolowania przechowywania wiadomości między węzłami grafu, przezwyciężając typowe dla tych algorytmów problemy ze zbieżnością.
CUDA-Q QEC integruje również dekodery AI, które stają się coraz bardziej popularne ze względu na ich zdolność do przetwarzania określonych modeli błędów z większą dokładnością lub mniejszym opóźnieniem. Naukowcy mogą opracowywać dekodery AI poprzez trenowanie modeli i eksportowanie ich do formatu ONNX, wykorzystując NVIDIA TensorRT do operacji o niskim opóźnieniu. Integracja ta ułatwia płynne wnioskowanie AI w ramach przepływów pracy kwantowej korekcji błędów.
Dekodowanie z przesuwnym oknem
Dekoder z przesuwanym oknem to kolejna innowacyjna funkcja, która umożliwia przetwarzanie szumów na poziomie obwodu w wielu zespołach. Przetwarzając syndromy przed otrzymaniem pełnej sekwencji pomiarowej, zmniejsza opóźnienia, jednocześnie potencjalnie zwiększając wskaźniki błędów logicznych. Funkcja ta oferuje badaczom elastyczność w eksperymentowaniu z różnymi modelami szumu i parametrami korekcji błędów.
Implikacje dla obliczeń kwantowych
Ulepszenia w CUDA-Q QEC 0.5.0 przyspieszą badania i rozwój kwantowej korekcji błędów, krytycznego elementu umożliwiającego działanie komputerów kwantowych odpornych na błędy. Ulepszenia te prawdopodobnie umożliwią bardziej niezawodne zastosowania obliczeń kwantowych, torując drogę do przełomów w kilku obszarach zależnych od technologii kwantowej.
Dla osób zainteresowanych odkrywaniem nowych możliwości, CUDA-Q QEC można zainstalować poprzez pip, a dalsza dokumentacja dostępna jest na oficjalnej stronie NVIDIA.
Źródło obrazu: Shutterstock
Sirius firmy NVIDIA bije rekordy ClickBench dzięki akceleracji GPU
Rongchai Wang
15 Dec 2025 18:16
Sirius firmy NVIDIA, akcelerowany przez GPU silnik SQL dla DuckDB, ustanawia nowe benchmarki wydajności w ClickBench i demonstruje efektywność kosztową oraz szybkość dzięki innowacyjnemu wykonywaniu natywnemu dla GPU.
NVIDIA, we współpracy z Uniwersytetem Wisconsin-Madison, zaprezentowała Sirius, akcelerowany przez GPU silnik SQL, który ustanowił nowy benchmark wydajności w ClickBench. Silnik Sirius o otwartym kodzie źródłowym integruje się z DuckDB, bazą danych znaną ze swojej prostoty i szybkości, aby umożliwić wydajną analizę przy użyciu technologii GPU.
Partnerstwo i innowacje
DuckDB jest coraz częściej wykorzystywana przez firmy takie jak DeepSeek, Microsoft i Databricks, dzięki swojej wszechstronności i wydajności. NVIDIA i University of Wisconsin-Madison dostrzegły potencjał w zakresie zwiększenia wydajności i opracowały Sirius, aby zapewnić akcelerowaną przez GPU analitykę bez konieczności przebudowywania systemów baz danych od podstaw. Wykorzystując biblioteki NVIDIA CUDA-X, Sirius przyspiesza wykonywanie zapytań i oferuje znaczny wzrost wydajności i przepustowości w porównaniu z tradycyjnymi systemami opartymi na CPU.
Najważniejsze cechy architektury
Sirius działa jako natywny dla GPU backend wykonawczy dla DuckDB, nie wymagając żadnych modyfikacji w bazie kodu DuckDB. Wykorzystuje on potężne biblioteki NVIDIA, w tym cuDF i RAPIDS Memory Manager, do budowy swojego silnika wykonawczego. Integracja ta pozwala Sirius na ponowne wykorzystanie zaawansowanych podsystemów DuckDB przy jednoczesnym rozszerzeniu ich o akcelerację GPU, umożliwiając wydajne wykonywanie operacji SQL.
Rekordowa wydajność
W benchmarku analitycznym ClickBench, Sirius wykazał się rekordową wydajnością. Sirius, działający na superukładzie Grace Hopper GH200 firmy NVIDIA, przewyższył inne najlepsze systemy i osiągnął doskonałą efektywność kosztową i szybkość. W testach, Sirius zapewnił co najmniej 7,2-krotnie wyższą efektywność kosztową niż systemy wykorzystujące wyłącznie procesory CPU, podkreślając swoją zdolność do łatwej obsługi złożonych zapytań.
Przyszły rozwój
W przyszłości NVIDIA i jej partnerzy planują dalszy rozwój możliwości GPU w zakresie przetwarzania danych. Wysiłki skupią się na poprawie zarządzania pamięcią GPU, opracowaniu natywnych dla GPU czytników plików i ewolucji modelu wykonywania w kierunku skalowalnej architektury wielowęzłowej. Usprawnienia te mają na celu usprawnienie przetwarzania danych i zwiększenie skalowalności Siriusa, tak by mógł on przetwarzać zbiory danych w skali petabajtów.
Aby uzyskać bardziej szczegółowe informacje, odwiedź oryginał (nazwa źródła)(https://developer.nvidia.com/blog/nvidia-gpu-accelerated-sirius-achieves-record-setting-clickbench-record/).
Obraz źródłowy: Shutterstock
Akcje Accenture (ACN); wzrosty dzięki transakcjom AI i dużej aktywności w zakresie zakupów instytucjonalnych
TLDR
- Akcje ACN odbijają się o 10% od ostatnich minimów, ale pozostają ponad 30% poniżej tegorocznego maksimum.
- Przychody Advanced AI potroiły się do 2,7 mld USD; rezerwacje prawie podwoiły się do 5,9 mld USD.
- Oczekiwany wzrost przychodów o 2% do 5%, skorygowany EPS o 8% w FY26.
- Transakcje OpenAI i Snowflake wzmacniają ekosystem AI; inwestorzy instytucjonalni aktywnie akumulują.
Znajdź następną galę KnockoutStock!
Uzyskaj kursy na żywo, wykresy i wyniki KO od KnockoutStocks.complatforma oparta na danych, która klasyfikuje akcje pod względem jakości i potencjału wybicia.
Accenture plc (NYSE: ACN) po raz kolejny przyciąga uwagę inwestorów.po burzliwym 2025 roku. W tym tygodniu akcje były notowane w połowie 260 USD w piątek, co oznacza odreagowanie o około 9% do 10% od ostatnich minimów.
Pomimo tego odbicia, akcje nadal znajdują się ponad 30% poniżej 52-tygodniowego szczytu na poziomie 398 USD. Analitycy opisują ten ruch raczej jako “reset” niż pełne ożywienie, zauważając, że akcje spadły o około 20% w ujęciu rocznym.
Wskaźniki techniczne pokazują, że ACN waha się w pobliżu długoterminowej linii trendu, z 50-dniową średnią kroczącą około 248 USD i 200-dniową średnią na poziomie 267,10 USD. Wolumen był powyżej średniej podczas ostatniego czterodniowego rajdu, co wskazuje na aktywny handel, ponieważ instytucje pozycjonują się przed 2026 rokiem. Zacks oznaczył również Accenture jako akcje zyskujące na popularności, odzwierciedlając zwiększone zainteresowanie rynku inicjatywami opartymi na sztucznej inteligencji.
Biznes AI nabiera rozpędu
Rok fiskalny 2025 przyniósł znaczące przyspieszenie w działalności Accenture w zakresie sztucznej inteligencji. Całkowite przychody wzrosły o 7% do 69,7 mld USD, podczas gdy przychody z zaawansowanej sztucznej inteligencji wzrosły około trzykrotnie do 2,7 mld USD.
Rezerwacje powiązane z Inicjatywy AI niemal podwoiła się do 5,9 mld USD, co pokazuje, że strategia Accenture “AI-first” przekłada się na wymierne wyniki.
Firma zwiększyła liczbę pracowników, aby wesprzeć ten wzrost, zatrudniając około 77 000 specjalistów pracujących nad sztuczną inteligencją i danymi, w porównaniu z 40 000 w FY23. Ponad 550 000 pracowników zostało przeszkolonych w zakresie generatywnej sztucznej inteligencji, przygotowując firmę do dostarczania transformacyjnych rozwiązań dla klientów z różnych branż. CEO Julie Sweet określiła segment danych i sztucznej inteligencji jako “płonący”, a prawie połowa projektów AI prowadzi obecnie do znaczącej modernizacji biznesu.
Prognoza na rok finansowy 2016: ostrożna, ale pozytywna
Patrząc w przyszłość, Accenture spodziewa się umiarkowanego wzrostu w roku obrotowym 2026. Zarząd prognozuje wzrost przychodów o 2-5% w walucie lokalnej lub 3-6% z wyłączeniem działalności federalnej w USA.
Oczekuje się, że skorygowany zysk na akcję wzrośnie o 5-8%, a spółka planuje zwrócić akcjonariuszom co najmniej 9,3 mld USD w formie dywidend i wykupu akcji własnych.
Chociaż dane te odzwierciedlają stabilną realizację, analitycy podkreślają, że wzrost pozostaje raczej celowy niż gwałtowny. Accenture pozycjonuje się raczej jako integrator systemów premium niż startup AI o wysokim poziomie beta, równoważąc umiarkowane oczekiwania dotyczące przychodów ze znacznymi inwestycjami w platformy AI i talenty.
Strategiczne partnerstwa AI i wsparcie instytucjonalne
Accenture wzmocniło swój ekosystem AI poprzez kluczowe partnerstwa i przejęcia. Partnerstwo z OpenAI integruje ChatGPT Enterprise z konsultingiem i operacjami, podczas gdy Accenture-Snowflake Business Group pomaga firmom wykorzystywać rozwiązania chmurowe oparte na sztucznej inteligencji.
Strategiczne inwestycje w WEVO, RANGR Data i Alembic zwiększają możliwości w zakresie analizy klientów, inżynierii danych i inteligencji marketingowej.
Zainteresowanie instytucjonalne pozostaje duże, a duże fundusze zwiększają swoje udziały, podczas gdy niektóre wycofują swoje pozycje. Około trzech czwartych akcji ACN znajduje się w posiadaniu inwestorów instytucjonalnych, co odzwierciedla status spółki jako blue chipa. Analitycy zauważają, że ta mieszanka zakupów i selektywnej sprzedaży wskazuje na zaufanie do długoterminowej strategii AI Accenture, przy jednoczesnym zarządzaniu ekspozycją w obliczu niedawnej obniżki ratingu.
Perspektywa wyceny
Przy około 22-krotnym zysku kroczącym i stopie dywidendy na poziomie 2,5%, ACN handluje poniżej ostatnich szczytowych mnożników, ale pozostaje powyżej wielu porównywalnych dostawców usług IT.
12-miesięczne ceny docelowe analityków wahają się między 278 a 308 USD, a niezależne modele sugerują potencjał wzrostu o 10-30%. Niedźwiedzie powołują się na zmniejszony popyt na usługi IT i zwiększone koszty pracowników AI, podczas gdy byki podkreślają silne podstawy AI i danych spółki.
Podsumowując, Accenture stabilizuje się po trudnym 2025 r., a wzrost oparty na sztucznej inteligencji, partnerstwa strategiczne i przejęcia instytucjonalne napędzają perspektywy. Inwestorzy stoją teraz przed zrównoważonym połączeniem możliwości i ostrożności, ponieważ firma przygotowuje się na rok 2026.
FanHub rewolucjonizuje ekonomię fandomu sportowego dzięki Avalanche Blockchain
Felix Pinkston
18 Nov 2025 02:16
FanHub wprowadza zdecentralizowaną platformę wykorzystującą blockchain Avalanche do przekształcenia fandomu sportowego w dynamiczną gospodarkę, oferującą wymierne nagrody i możliwości dla fanów i firm.
FanHub, pionierska platforma w przestrzeni Fantech, jest gotowa zrewolucjonizować krajobraz fandomu sportowego dzięki wykorzystaniu zdecentralizowanej technologii. Według Avax.network, ta innowacyjna platforma ma na celu stworzenie organicznej gospodarki, w której tworzone są nowe strumienie wartości między fanami, zespołami i markami.
Złamany tradycyjny model
Przez ponad sto lat model biznesowy sportu ewoluował w niewielkim stopniu, z fanami wnoszącymi swoją pasję i pieniędzmi przynoszącymi korzyści głównie nadawcom i platformom społecznościowym. Tradycyjny sponsoring koncentruje się na świadomości marki bez wyraźnego zwrotu z inwestycji, często wykluczając mniejsze firmy. FanHub stara się przełamać ten model, przekształcając zaangażowanie fanów w warstwę transakcyjną, która oferuje wymierne nagrody i demokratyzuje dostęp dla mniejszych firm.
Odpowiadanie na potrzeby fanów
Fani często szukają uznania i namacalnych korzyści, ale obecny system oferuje niewiele w zamian. Tradycyjny sponsoring jest drogi i przeznaczony dla dużych marek, co stawia małe i średnie firmy w niekorzystnej sytuacji. FanHub rozwiązuje te problemy za pomocą mobilnej, gamifikowanej aplikacji, która generuje wartość ekonomiczną z interakcji z fanami. Funkcje obejmują meldowanie się na meczach, przewidywanie składów i statystyki fanów, wszystkie weryfikowane na blockchainie Avalanche.
Innowacyjna oferta
FanHub nagradza użytkowników punktami LYLTY, które można wymienić na różne zachęty, takie jak darmowe towary, zniżki dla partnerów, a wkrótce także kupony w głównych aplikacjach dostawczych. Firmy mogą również dołączyć jako partnerzy LYLTY, co pozwala im oferować nagrody lojalnościowe swoim klientom bez żadnych kosztów początkowych. Infrastruktura ta została zatwierdzona przez główne instytucje finansowe, takie jak Visa, Mastercard i American Express, zapewniając bezproblemową obsługę.
Rozwijający się rynek
Platforma celuje w ogromny rynek o wartości 0,5 biliona funtów, który obejmuje zakłady sportowe, sponsoring i podróże kibiców. FanHub strategicznie skupił się na piłce nożnej w Wielkiej Brytanii, szukając możliwości w niższych ligach przed ekspansją globalną. Takie podejście przyciągnęło zainteresowanie ze strony znanych klubów i międzynarodowych drużyn, a celem jest osiągnięcie pół miliona aktywnych portfeli w przyszłym roku.
Zespół i perspektywy na przyszłość
FanHub jest prowadzony przez CEO Garetha Lippiatta, który ma 20-letnie doświadczenie w technologii sportowej, oraz CIO Harleya Thorne’a, znanego z doświadczenia w DevOps. FanHub jest wspierany przez inwestorów takich jak Avalanche i Blockchange i planuje rozszerzyć swoje partnerstwa z różnymi ligami i drużynami do 2026 roku, co zbiega się z Mistrzostwami Świata w USA.
Wpływ na Avalanche
Integracja FanHub z blockchainem Avalanche stanowi ważny krok w kierunku powszechnego przyjęcia ekonomii tokenów. Koncentrując się na zwyczajowej, a nie spekulacyjnej aktywności, FanHub osiągnął znaczny wzrost portfela i stanowi znaczny procent aktywnych portfeli Avalanche C-Chain w dni meczowe.
Inicjatywa ta jest przykładem Fantech na dużą skalę, wykorzystującym zdecentralizowaną technologię do tworzenia nowych możliwości ekonomicznych w ekosystemie fandomu sportowego.
Więcej informacji można znaleźć na stronie Avax.network.
Obraz źródłowy: Shutterstock
Ray usprawnia planowanie dzięki nowym selektorom etykiet
Terrill Dicki
01 Nov 2025 13:41
Ray wprowadza selektory etykiet, poprawiając możliwości planowania dla programistów w celu dokładniejszego umieszczania obciążeń na węzłach. Funkcja ta powstała we współpracy z Google Kubernetes Engine.
Ray, rozproszony framework obliczeniowy, wprowadził dużą aktualizację wraz z wprowadzeniem selektorów etykiet, funkcji mającej na celu zwiększenie elastyczności dla programistów. Ta nowa funkcja pozwala na dokładniejsze umieszczanie obciążeń na odpowiednich węzłach, zgodnie z niedawnym ogłoszeniem przez Anyscale.
Poprawa rozkładu obciążenia
Wprowadzenie selektorów etykiet jest częścią współpracy z zespołem Google Kubernetes Engine. Nowa funkcja jest dostępna w Ray w wersji 2.49 i jest zintegrowana z Ray Dashboard, KubeRay i platformą obliczeniową AI Anyscale. Umożliwia ona deweloperom przypisywanie określonych etykiet do węzłów w klastrze Ray, takich jak cpu-family=intel lub market-type=spot, co może usprawnić proces planowania zadań, aktorów lub grup placement na określonych węzłach.
Rozwiązywanie wcześniejszych ograniczeń
Wcześniej programiści napotykali wyzwania, próbując zaplanować zadania na określonych węzłach, często uciekając się do obejść, które myliły ilości zasobów z ograniczeniami rozmieszczenia. Nowe selektory etykiet rozwiązują te ograniczenia, umożliwiając bardziej elastyczne wyrażanie wymagań dotyczących planowania, w tym dokładne dopasowania, warunki any-of i dopasowania ujemne, takie jak unikanie węzłów GPU lub określanie regionów, takich jak us-west1-a lub us-west1-b.
Integracja z Kubernetes
Selektory etykiet Ray są inspirowane etykietami i selektorami Kubernetes, co poprawia interoperacyjność między tymi dwoma systemami. Rozwój ten jest częścią trwających wysiłków na rzecz ściślejszej integracji Ray z Kubernetes, umożliwiając bardziej zaawansowane przypadki użycia dzięki znanym interfejsom API i semantyce.
Praktyczne zastosowania
Selektory etykiet pozwalają deweloperom osiągać różne cele planowania, takie jak przypinanie zadań do określonych węzłów, wybieranie miejsc tylko dla procesora, kierowanie określonych akceleratorów i utrzymywanie obciążeń w określonych regionach lub strefach. Funkcja ta obsługuje również zarówno statyczne, jak i automatyczne skalowanie klastrów, przy czym autoskaler Anyscale bierze pod uwagę kształty zasobów i selektory etykiet, aby odpowiednio skalować grupy robocze.
Przyszły rozwój
W przyszłości Ray planuje rozszerzyć funkcję selektora etykiet o dodatkowe możliwości, takie jak awaryjne selektory etykiet, obsługę bibliotek dla powszechnie używanych wzorców planowania i ulepszoną interoperacyjność z Kubernetes. Zmiany te mają na celu dalsze uproszczenie planowania obciążeń i poprawę ogólnego doświadczenia użytkownika.
Aby uzyskać bardziej szczegółowe instrukcje i dane API, deweloperzy mogą odwiedzić stronę Anyscale oraz Przewodniki Ray.
Obraz źródłowy: Shutterstock
OpenAI ulepsza GPT-5 dla wrażliwych połączeń dzięki nowym środkom bezpieczeństwa
Jessie A Ellis
27 Oct 2025 23:15
OpenAI wydało dodatek do mapy systemu GPT-5, pokazujący ulepszenia w obsłudze wrażliwych połączeń z ulepszonymi testami bezpieczeństwa.
OpenAI ogłosiło znaczące ulepszenia GPT-5, mające na celu poprawę zdolności modelu do obsługi wrażliwych połączeń. Aktualizacja ta, wyszczególniona w najnowszym dodatku do mapy systemu, podkreśla postępy w zakresie zależności emocjonalnej, zdrowia psychicznego i odporności na jailbreaki, powiedział OpenAI.
Postępy w zakresie zdrowia emocjonalnego i psychicznego
Aby wzmocnić wrażliwość modelu, OpenAI współpracowało z ponad 170 ekspertami w dziedzinie zdrowia psychicznego, aby udoskonalić zdolność GPT-5 do rozpoznawania sygnałów niepokoju i udzielania odpowiedzi wspierających. Celem ulepszeń jest zmniejszenie liczby nieadekwatnych odpowiedzi o 65-80%, zwiększając niezawodność modelu w interakcjach naładowanych emocjonalnie.
Porównania porównawcze i aktualizacje systemu
Dodatek zawiera analizę porównawczą między wersją GPT-5 z 15 sierpnia, znaną również jako GPT-5 Instant, a zaktualizowanym modelem uruchomionym 3 października. Przeglądy te są częścią ciągłego zaangażowania OpenAI w zapewnianie bezpieczeństwa sztucznej inteligencji i standardów etycznych.
Bieżące wysiłki na rzecz bezpieczeństwa AI
OpenAI aktywnie wzmacnia mechanizmy bezpieczeństwa sztucznej inteligencji. Wraz z wdrożeniem ostatniej aktualizacji, organizacja dąży do lepszego dostosowania odpowiedzi GPT-5 do rzeczywistych systemów wsparcia, zwiększając doświadczenie użytkownika i zaufanie.
Więcej informacji można znaleźć na oficjalnej stronie Ogłoszenie OpenAI.
Obraz źródłowy: Shutterstock
NVIDIA usprawnia dynamikę molekularną dzięki symulacjom opartym na sztucznej inteligencji
Joerg Hiller
20 Oct 2025 16:49
NVIDIA współpracuje z krajowymi laboratoriami w celu zintegrowania sztucznej inteligencji z symulacjami dynamiki molekularnej, zwiększając skalowalność i wydajność badań naukowych na dużą skalę.
NVIDIA, we współpracy z Los Alamos i Sandia National Laboratories, wprowadziła pionierską integrację sztucznej inteligencji z symulacjami dynamiki molekularnej (MD), zgodnie z oficjalnym blogiem NVIDIA. Postęp ten obiecuje poprawę skalowalności i wydajności, co czyni go kluczowym osiągnięciem dla chemii obliczeniowej i nauki o materiałach.
Integracja modeli opartych na PyTorch
Integracja wykorzystuje oparte na PyTorch potencjały międzyatomowe uczenia maszynowego (MLIP) w pakiecie LAMMPS MD za pośrednictwem interfejsu ML-IAP-Kokkos. Konfiguracja ta została zaprojektowana w celu usprawnienia łączenia wspólnych modeli, umożliwiając płynne i skalowalne symulacje układów atomowych. Interfejs obsługuje modele MLIP z wymianą komunikatów i wykorzystuje wbudowane możliwości komunikacyjne LAMMPS do wydajnego przesyłania danych między procesorami graficznymi, co ma kluczowe znaczenie dla symulacji na dużą skalę.
Wspólny rozwój i funkcje
Interfejs ML-IAP-Kokkos, opracowany wspólnie przez firmy NVIDIA i National Laboratories, wykorzystuje język Cython jako pomost pomiędzy Pythonem a C++/Kokkos LAMMPS, zapewniając kompleksową akcelerację GPU. Interfejs ten pozwala zewnętrznym programistom łączyć swoje modele PyTorch, umożliwiając skalowalne symulacje LAMMPS. System może obsługiwać duże zbiory danych, umożliwiając naukowcom badanie reakcji chemicznych i właściwości materiałów z niespotykaną dotąd dokładnością i szybkością.
Analiza porównawcza i wydajność
Wydajność interfejsu została porównana z modelami HIPPYNN na maksymalnie 512 procesorach graficznych NVIDIA H100 i wykazała znaczną poprawę szybkości. Testy te wykazały wzrost wydajności dzięki wykorzystaniu haków komunikacyjnych, które redukują liczbę atomów-duchów, optymalizując proces symulacji. Integracja zmniejsza całkowitą liczbę przetwarzanych atomów, prowadząc do znacznego przyspieszenia czasu symulacji.
Analiza porównawcza z integracją MACE
Dalsze testy polegały na porównaniu interfejsu ML-IAP-Kokkos z MACE MLIP, co wykazało, że nowa wtyczka oferuje lepszą szybkość i wydajność pamięci. Wynika to z przyspieszenia modelu przez cuEquivariance i ulepszonych możliwości przekazywania komunikatów w interfejsie.
Implikacje na przyszłość
Interfejs ML-IAP-Kokkos pozycjonuje się jako kluczowe narzędzie do symulacji MD z wykorzystaniem wielu procesorów graficznych i wielu węzłów przy użyciu MLIP. Wypełnia on lukę między nowoczesnymi polami siłowymi opartymi na uczeniu maszynowym a wysokowydajnymi infrastrukturami obliczeniowymi, umożliwiając badaczom wydajną symulację bardzo dużych systemów. Integracja sztucznej inteligencji z dynamiką molekularną stanowi duży krok naprzód w badaniach obliczeniowych i obiecuje napędzać przyszłe innowacje w tej dziedzinie.
Więcej informacji można znaleźć na stronie Blog NVIDIA.
Obraz źródłowy: Shutterstock