Ray usprawnia planowanie dzięki nowym selektorom etykiet
Terrill Dicki
01 Nov 2025 13:41
Ray wprowadza selektory etykiet, poprawiając możliwości planowania dla programistów w celu dokładniejszego umieszczania obciążeń na węzłach. Funkcja ta powstała we współpracy z Google Kubernetes Engine.
Ray, rozproszony framework obliczeniowy, wprowadził dużą aktualizację wraz z wprowadzeniem selektorów etykiet, funkcji mającej na celu zwiększenie elastyczności dla programistów. Ta nowa funkcja pozwala na dokładniejsze umieszczanie obciążeń na odpowiednich węzłach, zgodnie z niedawnym ogłoszeniem przez Anyscale.
Poprawa rozkładu obciążenia
Wprowadzenie selektorów etykiet jest częścią współpracy z zespołem Google Kubernetes Engine. Nowa funkcja jest dostępna w Ray w wersji 2.49 i jest zintegrowana z Ray Dashboard, KubeRay i platformą obliczeniową AI Anyscale. Umożliwia ona deweloperom przypisywanie określonych etykiet do węzłów w klastrze Ray, takich jak cpu-family=intel lub market-type=spot, co może usprawnić proces planowania zadań, aktorów lub grup placement na określonych węzłach.
Rozwiązywanie wcześniejszych ograniczeń
Wcześniej programiści napotykali wyzwania, próbując zaplanować zadania na określonych węzłach, często uciekając się do obejść, które myliły ilości zasobów z ograniczeniami rozmieszczenia. Nowe selektory etykiet rozwiązują te ograniczenia, umożliwiając bardziej elastyczne wyrażanie wymagań dotyczących planowania, w tym dokładne dopasowania, warunki any-of i dopasowania ujemne, takie jak unikanie węzłów GPU lub określanie regionów, takich jak us-west1-a lub us-west1-b.
Integracja z Kubernetes
Selektory etykiet Ray są inspirowane etykietami i selektorami Kubernetes, co poprawia interoperacyjność między tymi dwoma systemami. Rozwój ten jest częścią trwających wysiłków na rzecz ściślejszej integracji Ray z Kubernetes, umożliwiając bardziej zaawansowane przypadki użycia dzięki znanym interfejsom API i semantyce.
Praktyczne zastosowania
Selektory etykiet pozwalają deweloperom osiągać różne cele planowania, takie jak przypinanie zadań do określonych węzłów, wybieranie miejsc tylko dla procesora, kierowanie określonych akceleratorów i utrzymywanie obciążeń w określonych regionach lub strefach. Funkcja ta obsługuje również zarówno statyczne, jak i automatyczne skalowanie klastrów, przy czym autoskaler Anyscale bierze pod uwagę kształty zasobów i selektory etykiet, aby odpowiednio skalować grupy robocze.
Przyszły rozwój
W przyszłości Ray planuje rozszerzyć funkcję selektora etykiet o dodatkowe możliwości, takie jak awaryjne selektory etykiet, obsługę bibliotek dla powszechnie używanych wzorców planowania i ulepszoną interoperacyjność z Kubernetes. Zmiany te mają na celu dalsze uproszczenie planowania obciążeń i poprawę ogólnego doświadczenia użytkownika.
Aby uzyskać bardziej szczegółowe instrukcje i dane API, deweloperzy mogą odwiedzić stronę Anyscale oraz Przewodniki Ray.
Obraz źródłowy: Shutterstock
OpenAI ulepsza GPT-5 dla wrażliwych połączeń dzięki nowym środkom bezpieczeństwa
Jessie A Ellis
27 Oct 2025 23:15
OpenAI wydało dodatek do mapy systemu GPT-5, pokazujący ulepszenia w obsłudze wrażliwych połączeń z ulepszonymi testami bezpieczeństwa.
OpenAI ogłosiło znaczące ulepszenia GPT-5, mające na celu poprawę zdolności modelu do obsługi wrażliwych połączeń. Aktualizacja ta, wyszczególniona w najnowszym dodatku do mapy systemu, podkreśla postępy w zakresie zależności emocjonalnej, zdrowia psychicznego i odporności na jailbreaki, powiedział OpenAI.
Postępy w zakresie zdrowia emocjonalnego i psychicznego
Aby wzmocnić wrażliwość modelu, OpenAI współpracowało z ponad 170 ekspertami w dziedzinie zdrowia psychicznego, aby udoskonalić zdolność GPT-5 do rozpoznawania sygnałów niepokoju i udzielania odpowiedzi wspierających. Celem ulepszeń jest zmniejszenie liczby nieadekwatnych odpowiedzi o 65-80%, zwiększając niezawodność modelu w interakcjach naładowanych emocjonalnie.
Porównania porównawcze i aktualizacje systemu
Dodatek zawiera analizę porównawczą między wersją GPT-5 z 15 sierpnia, znaną również jako GPT-5 Instant, a zaktualizowanym modelem uruchomionym 3 października. Przeglądy te są częścią ciągłego zaangażowania OpenAI w zapewnianie bezpieczeństwa sztucznej inteligencji i standardów etycznych.
Bieżące wysiłki na rzecz bezpieczeństwa AI
OpenAI aktywnie wzmacnia mechanizmy bezpieczeństwa sztucznej inteligencji. Wraz z wdrożeniem ostatniej aktualizacji, organizacja dąży do lepszego dostosowania odpowiedzi GPT-5 do rzeczywistych systemów wsparcia, zwiększając doświadczenie użytkownika i zaufanie.
Więcej informacji można znaleźć na oficjalnej stronie Ogłoszenie OpenAI.
Obraz źródłowy: Shutterstock
NVIDIA usprawnia dynamikę molekularną dzięki symulacjom opartym na sztucznej inteligencji
Joerg Hiller
20 Oct 2025 16:49
NVIDIA współpracuje z krajowymi laboratoriami w celu zintegrowania sztucznej inteligencji z symulacjami dynamiki molekularnej, zwiększając skalowalność i wydajność badań naukowych na dużą skalę.
NVIDIA, we współpracy z Los Alamos i Sandia National Laboratories, wprowadziła pionierską integrację sztucznej inteligencji z symulacjami dynamiki molekularnej (MD), zgodnie z oficjalnym blogiem NVIDIA. Postęp ten obiecuje poprawę skalowalności i wydajności, co czyni go kluczowym osiągnięciem dla chemii obliczeniowej i nauki o materiałach.
Integracja modeli opartych na PyTorch
Integracja wykorzystuje oparte na PyTorch potencjały międzyatomowe uczenia maszynowego (MLIP) w pakiecie LAMMPS MD za pośrednictwem interfejsu ML-IAP-Kokkos. Konfiguracja ta została zaprojektowana w celu usprawnienia łączenia wspólnych modeli, umożliwiając płynne i skalowalne symulacje układów atomowych. Interfejs obsługuje modele MLIP z wymianą komunikatów i wykorzystuje wbudowane możliwości komunikacyjne LAMMPS do wydajnego przesyłania danych między procesorami graficznymi, co ma kluczowe znaczenie dla symulacji na dużą skalę.
Wspólny rozwój i funkcje
Interfejs ML-IAP-Kokkos, opracowany wspólnie przez firmy NVIDIA i National Laboratories, wykorzystuje język Cython jako pomost pomiędzy Pythonem a C++/Kokkos LAMMPS, zapewniając kompleksową akcelerację GPU. Interfejs ten pozwala zewnętrznym programistom łączyć swoje modele PyTorch, umożliwiając skalowalne symulacje LAMMPS. System może obsługiwać duże zbiory danych, umożliwiając naukowcom badanie reakcji chemicznych i właściwości materiałów z niespotykaną dotąd dokładnością i szybkością.
Analiza porównawcza i wydajność
Wydajność interfejsu została porównana z modelami HIPPYNN na maksymalnie 512 procesorach graficznych NVIDIA H100 i wykazała znaczną poprawę szybkości. Testy te wykazały wzrost wydajności dzięki wykorzystaniu haków komunikacyjnych, które redukują liczbę atomów-duchów, optymalizując proces symulacji. Integracja zmniejsza całkowitą liczbę przetwarzanych atomów, prowadząc do znacznego przyspieszenia czasu symulacji.
Analiza porównawcza z integracją MACE
Dalsze testy polegały na porównaniu interfejsu ML-IAP-Kokkos z MACE MLIP, co wykazało, że nowa wtyczka oferuje lepszą szybkość i wydajność pamięci. Wynika to z przyspieszenia modelu przez cuEquivariance i ulepszonych możliwości przekazywania komunikatów w interfejsie.
Implikacje na przyszłość
Interfejs ML-IAP-Kokkos pozycjonuje się jako kluczowe narzędzie do symulacji MD z wykorzystaniem wielu procesorów graficznych i wielu węzłów przy użyciu MLIP. Wypełnia on lukę między nowoczesnymi polami siłowymi opartymi na uczeniu maszynowym a wysokowydajnymi infrastrukturami obliczeniowymi, umożliwiając badaczom wydajną symulację bardzo dużych systemów. Integracja sztucznej inteligencji z dynamiką molekularną stanowi duży krok naprzód w badaniach obliczeniowych i obiecuje napędzać przyszłe innowacje w tej dziedzinie.
Więcej informacji można znaleźć na stronie Blog NVIDIA.
Obraz źródłowy: Shutterstock