Multiply Labs wykorzystuje roboty oparte na technologii NVIDIA, aby obniżyć koszty terapii komórkowej o 70%
Luisa Crawford
12 stycznia 2026 r., godz. 23:20
Startup z San Francisco wykorzystuje NVIDIA Isaac Sim i Omniverse do automatyzacji produkcji terapii komórkowej i celuje w rynek o wartości 38 miliardów dolarów dzięki robotyce, która zmniejsza ryzyko zakażenia.
Multiply Labs stawia na to, że roboty dla laboratoriów terapii komórkowej mogą zrobić to samo, co automatyzacja zrobiła dla fabryk półprzewodników – a liczby sugerują, że mogą mieć rację. Startup z San Francisco twierdzi, że jego zrobotyzowane systemy produkcyjne obniżają koszty produkcji o ponad 70%, jednocześnie zmniejszając ryzyko zakażenia w jednym z najbardziej wymagających procesów w medycynie.
Założona w 2016 r. i wspierana przez Y Combinator firma współpracuje obecnie z dużymi graczami w dziedzinie terapii komórkowej, w tym Kyverna Therapeutics i Legend Biotech. Ich argument jest jasny: terapie komórkowe to spersonalizowane zabiegi, w których komórki są pobierane od pacjentów, modyfikowane genetycznie i ponownie wprowadzane do organizmu w celu zwalczania chorób. Każda partia jest w zasadzie jednorazową produkcją, w której pojedyncze zakażenie może zniweczyć tygodnie pracy.
„Pokazała mi, czym zajmuje się w laboratorium i jak trudne jest to zadanie, a ja nie mogłem w to uwierzyć. Myślałem, że leki są produkowane tak jak chipsy, a to było szalone, ale też prawdziwe” – powiedział Fred Parietti, współzałożyciel i dyrektor generalny, wspominając moment, w którym jego koleżanka z MIT, Alice Melocchi, po raz pierwszy pokazała mu ręczne procesy.
Technologia stojąca za czystym pomieszczeniem
Multiply Labs buduje swoją platformę automatyzacji w oparciu o infrastrukturę robotyczną NVIDIA. Firma wykorzystuje NVIDIA Omniverse do tworzenia cyfrowych bliźniaków środowisk laboratoryjnych oraz Isaac Sim do szkolenia robotów w zakresie precyzyjnych ruchów niezbędnych do obsługi komórek. Niedawno rozpoczęli prace nad humanoidalnymi robotami, korzystając z podstawowego modelu Isaac GR00T firmy NVIDIA.
Istotne znaczenie ma tutaj podejście oparte na symulacji. Produkcja terapii komórkowej wymaga wykorzystania tzw. „wiedzy ukrytej” – nieudokumentowanej wiedzy specjalistycznej, którą doświadczeni naukowcy gromadzą przez lata. Multiply Labs wykorzystuje uczenie się przez naśladowanie, aby uchwycić te umiejętności, analizując filmy wideo przedstawiające pracę doświadczonych techników, a następnie przekładając te ruchy na zasady sterowania robotami.
„Muszą być sterylne i nie chcesz, aby ktokolwiek oddychał w pobliżu komórek, więc było to oczywiste zastosowanie robotyki wysokiej jakości” – wyjaśnia Parietti.
Czas wejścia na rynek i korzystne regulacje prawne
Rynek terapii komórkowej wyniósł w 2025 r. około 6,88 mld dolarów i według Straits Research ma osiągnąć 38,24 mld dolarów w 2034 r. Ta ścieżka wzrostu jest w dużym stopniu uzależniona od rozwiązania problemu w produkcji: obecne metody są kosztowne, niespójne i trudne do skalowania.
Wydaje się, że również w zakresie regulacji prawnych pojawia się impuls do zmian. 12 stycznia 2026 r. FDA ogłosiła większą elastyczność w zakresie produkcji terapii komórkowych i genowych, co może otworzyć drogę do zautomatyzowanych systemów produkcji.
Dla inwestorów śledzących połączenie sztucznej inteligencji, robotyki i biotechnologii Multiply Labs stanowi czysty zakład na fizyczną sztuczną inteligencję w produkcji produktów opieki zdrowotnej. Firma pozostaje prywatna, ale dzięki partnerstwom z notowanymi na giełdzie twórcami terapii komórkowych, takimi jak Legend Biotech (LEGN), oferuje pośrednią ekspozycję na ten trend automatyzacji.
Prawdziwy test nastąpi, gdy te systemy robotyczne przejdą z programów pilotażowych do pełnej produkcji. Jeśli Multiply Labs będzie w stanie konsekwentnie osiągać 70-procentową redukcję kosztów na dużą skalę, ekonomia spersonalizowanej medycyny będzie wyglądać zupełnie inaczej.
Źródło zdjęcia: Shutterstock
NVIDIA wprowadza system katalogowy oparty na sztucznej inteligencji, który usprawnia handel elektroniczny
Luisa Crawford
9 stycznia 2026 r., godz. 14:45
Nowy system katalogowy NVIDIA oparty na sztucznej inteligencji ma na celu ożywienie handlu elektronicznego poprzez oferowanie zlokalizowanych, interaktywnych doświadczeń związanych z produktami, zwiększając zaangażowanie i współczynniki konwersji.
NVIDIA jest liderem w transformacyjnym podejściu do handlu elektronicznego dzięki najnowszemu systemowi katalogowemu opartemu na sztucznej inteligencji, który został zaprojektowany w celu poprawy widoczności produktów, zaangażowania i współczynników konwersji. Według NVIDIAsystem wykorzystuje zaawansowane modele AI do tworzenia wzbogaconych, zlokalizowanych katalogów produktów dostosowanych do różnych rynków regionalnych.
Wykorzystanie zaawansowanych modeli AI
System katalogowy AI wykorzystuje duże modele językowe (LLM) i modele wizualno-językowe (VLM) NVIDIA Nemotron do przekształcania podstawowych obrazów produktów w bogate, szczegółowe wpisy katalogowe. Wpisy te zawierają rozbudowane tytuły, opisy, kategorie i interaktywne zasoby 3D dostosowane do konkretnych lokalizacji. System automatyzuje generowanie danych produktów, eliminując nieefektywność ręcznego zarządzania katalogiem.
Skalowalna i modułowa architektura
System został zaprojektowany z myślą o skalowalności i oparty jest na architekturze modułowej. Wykorzystuje kontenery Docker i NVIDIA NIM w celu zapewnienia solidnej implementacji, gwarantującej wydajność na poziomie biznesowym. Interfejs API systemu składa się z trzech etapów: analizy VLM, generowania obrazów i tworzenia zasobów 3D, co umożliwia wydajne przetwarzanie i wysoką jakość wyników.
Ulepszenie lokalizacji i głosu marki
Lokalizacja jest ważną funkcją systemu, umożliwiającą generowanie treści dostosowanych do danej kultury, które przemawiają do globalnej publiczności. Umożliwia również integrację niestandardowych instrukcji dotyczących marki, dzięki czemu treści generowane przez sztuczną inteligencję są zgodne z unikalnym głosem i stylem marki.
Przyszłe rozszerzenia i funkcje
NVIDIA planuje rozszerzyć możliwości systemu o funkcje takie jak badania agencjalne w mediach społecznościowych i generowanie krótkich filmów wideo. Dodatki te mają na celu dalsze wzbogacenie opisów produktów i zapewnienie dynamicznych treści wizualnych, poprawiając ogólne wrażenia konsumentów.
System katalogowy oparty na sztucznej inteligencji stanowi znaczący postęp w dziedzinie handlu elektronicznego i oferuje skalowalne rozwiązanie problemów związanych z wyszukiwaniem produktów i zaangażowaniem klientów. Dzięki integracji zaawansowanej technologii sztucznej inteligencji firma NVIDIA wyznacza nowy standard interaktywnych, zlokalizowanych doświadczeń związanych z produktami na rynku cyfrowym.
Źródło obrazu: Shutterstock
NVIDIA ulepsza kwantową korekcję błędów dzięki dekodowaniu w czasie rzeczywistym i wnioskowaniu AI
Alvin Lang
17 Dec 2025 22:13
NVIDIA CUDA-Q QEC 0.5.0 wprowadza dekodowanie w czasie rzeczywistym, akcelerowane przez GPU dekodery algorytmiczne i ulepszenia wnioskowania AI, mające na celu zwiększenie możliwości korekcji błędów w obliczeniach kwantowych.
Firma NVIDIA udostępniła wersję 0.5.0 swojej platformy CUDA-Q Quantum Error Correction (QEC), będącej ważnym krokiem w kierunku odpornych na błędy obliczeń kwantowych. Aktualizacja ta wprowadza szereg usprawnień, w tym możliwości dekodowania w czasie rzeczywistym, akcelerowane przez GPU dekodery algorytmiczne i integrację sztucznej inteligencji, powiedział NVIDIA.
Postępy w dekodowaniu w czasie rzeczywistym
Dekodowanie w czasie rzeczywistym jest niezbędne do utrzymania integralności obliczeń kwantowych poprzez stosowanie poprawek w czasie koherencji jednostki przetwarzania kwantowego (QPU). Nowa wersja CUDA-Q QEC pozwala dekoderom o niskim opóźnieniu działać zarówno online z rzeczywistymi urządzeniami kwantowymi, jak i offline z symulowanymi procesorami. Zapobiega to akumulacji błędów, zwiększając wiarygodność wyników kwantowych.
Proces dekodowania w czasie rzeczywistym przebiega w czterech etapach: generowanie modelu błędu detektora (DEM), konfiguracja dekodera, ładowanie i inicjalizacja dekodera oraz dekodowanie w czasie rzeczywistym. To ustrukturyzowane podejście umożliwia badaczom skuteczne scharakteryzowanie błędów urządzenia i zastosowanie poprawek w razie potrzeby.
Algorytmy akcelerowane przez GPU i wnioskowanie oparte na sztucznej inteligencji
Jednym z najważniejszych elementów nowej wersji jest wprowadzenie akcelerowanych przez GPU dekoderów algorytmicznych, takich jak algorytm RelayBP, który rozwiązuje ograniczenia tradycyjnych dekoderów propagacji przekonań. RelayBP wykorzystuje mocne strony pamięci do kontrolowania przechowywania wiadomości między węzłami grafu, przezwyciężając typowe dla tych algorytmów problemy ze zbieżnością.
CUDA-Q QEC integruje również dekodery AI, które stają się coraz bardziej popularne ze względu na ich zdolność do przetwarzania określonych modeli błędów z większą dokładnością lub mniejszym opóźnieniem. Naukowcy mogą opracowywać dekodery AI poprzez trenowanie modeli i eksportowanie ich do formatu ONNX, wykorzystując NVIDIA TensorRT do operacji o niskim opóźnieniu. Integracja ta ułatwia płynne wnioskowanie AI w ramach przepływów pracy kwantowej korekcji błędów.
Dekodowanie z przesuwnym oknem
Dekoder z przesuwanym oknem to kolejna innowacyjna funkcja, która umożliwia przetwarzanie szumów na poziomie obwodu w wielu zespołach. Przetwarzając syndromy przed otrzymaniem pełnej sekwencji pomiarowej, zmniejsza opóźnienia, jednocześnie potencjalnie zwiększając wskaźniki błędów logicznych. Funkcja ta oferuje badaczom elastyczność w eksperymentowaniu z różnymi modelami szumu i parametrami korekcji błędów.
Implikacje dla obliczeń kwantowych
Ulepszenia w CUDA-Q QEC 0.5.0 przyspieszą badania i rozwój kwantowej korekcji błędów, krytycznego elementu umożliwiającego działanie komputerów kwantowych odpornych na błędy. Ulepszenia te prawdopodobnie umożliwią bardziej niezawodne zastosowania obliczeń kwantowych, torując drogę do przełomów w kilku obszarach zależnych od technologii kwantowej.
Dla osób zainteresowanych odkrywaniem nowych możliwości, CUDA-Q QEC można zainstalować poprzez pip, a dalsza dokumentacja dostępna jest na oficjalnej stronie NVIDIA.
Źródło obrazu: Shutterstock
Sirius firmy NVIDIA bije rekordy ClickBench dzięki akceleracji GPU
Rongchai Wang
15 Dec 2025 18:16
Sirius firmy NVIDIA, akcelerowany przez GPU silnik SQL dla DuckDB, ustanawia nowe benchmarki wydajności w ClickBench i demonstruje efektywność kosztową oraz szybkość dzięki innowacyjnemu wykonywaniu natywnemu dla GPU.
NVIDIA, we współpracy z Uniwersytetem Wisconsin-Madison, zaprezentowała Sirius, akcelerowany przez GPU silnik SQL, który ustanowił nowy benchmark wydajności w ClickBench. Silnik Sirius o otwartym kodzie źródłowym integruje się z DuckDB, bazą danych znaną ze swojej prostoty i szybkości, aby umożliwić wydajną analizę przy użyciu technologii GPU.
Partnerstwo i innowacje
DuckDB jest coraz częściej wykorzystywana przez firmy takie jak DeepSeek, Microsoft i Databricks, dzięki swojej wszechstronności i wydajności. NVIDIA i University of Wisconsin-Madison dostrzegły potencjał w zakresie zwiększenia wydajności i opracowały Sirius, aby zapewnić akcelerowaną przez GPU analitykę bez konieczności przebudowywania systemów baz danych od podstaw. Wykorzystując biblioteki NVIDIA CUDA-X, Sirius przyspiesza wykonywanie zapytań i oferuje znaczny wzrost wydajności i przepustowości w porównaniu z tradycyjnymi systemami opartymi na CPU.
Najważniejsze cechy architektury
Sirius działa jako natywny dla GPU backend wykonawczy dla DuckDB, nie wymagając żadnych modyfikacji w bazie kodu DuckDB. Wykorzystuje on potężne biblioteki NVIDIA, w tym cuDF i RAPIDS Memory Manager, do budowy swojego silnika wykonawczego. Integracja ta pozwala Sirius na ponowne wykorzystanie zaawansowanych podsystemów DuckDB przy jednoczesnym rozszerzeniu ich o akcelerację GPU, umożliwiając wydajne wykonywanie operacji SQL.
Rekordowa wydajność
W benchmarku analitycznym ClickBench, Sirius wykazał się rekordową wydajnością. Sirius, działający na superukładzie Grace Hopper GH200 firmy NVIDIA, przewyższył inne najlepsze systemy i osiągnął doskonałą efektywność kosztową i szybkość. W testach, Sirius zapewnił co najmniej 7,2-krotnie wyższą efektywność kosztową niż systemy wykorzystujące wyłącznie procesory CPU, podkreślając swoją zdolność do łatwej obsługi złożonych zapytań.
Przyszły rozwój
W przyszłości NVIDIA i jej partnerzy planują dalszy rozwój możliwości GPU w zakresie przetwarzania danych. Wysiłki skupią się na poprawie zarządzania pamięcią GPU, opracowaniu natywnych dla GPU czytników plików i ewolucji modelu wykonywania w kierunku skalowalnej architektury wielowęzłowej. Usprawnienia te mają na celu usprawnienie przetwarzania danych i zwiększenie skalowalności Siriusa, tak by mógł on przetwarzać zbiory danych w skali petabajtów.
Aby uzyskać bardziej szczegółowe informacje, odwiedź oryginał (nazwa źródła)(https://developer.nvidia.com/blog/nvidia-gpu-accelerated-sirius-achieves-record-setting-clickbench-record/).
Obraz źródłowy: Shutterstock
NVIDIA usprawnia dynamikę molekularną dzięki symulacjom opartym na sztucznej inteligencji
Joerg Hiller
20 Oct 2025 16:49
NVIDIA współpracuje z krajowymi laboratoriami w celu zintegrowania sztucznej inteligencji z symulacjami dynamiki molekularnej, zwiększając skalowalność i wydajność badań naukowych na dużą skalę.
NVIDIA, we współpracy z Los Alamos i Sandia National Laboratories, wprowadziła pionierską integrację sztucznej inteligencji z symulacjami dynamiki molekularnej (MD), zgodnie z oficjalnym blogiem NVIDIA. Postęp ten obiecuje poprawę skalowalności i wydajności, co czyni go kluczowym osiągnięciem dla chemii obliczeniowej i nauki o materiałach.
Integracja modeli opartych na PyTorch
Integracja wykorzystuje oparte na PyTorch potencjały międzyatomowe uczenia maszynowego (MLIP) w pakiecie LAMMPS MD za pośrednictwem interfejsu ML-IAP-Kokkos. Konfiguracja ta została zaprojektowana w celu usprawnienia łączenia wspólnych modeli, umożliwiając płynne i skalowalne symulacje układów atomowych. Interfejs obsługuje modele MLIP z wymianą komunikatów i wykorzystuje wbudowane możliwości komunikacyjne LAMMPS do wydajnego przesyłania danych między procesorami graficznymi, co ma kluczowe znaczenie dla symulacji na dużą skalę.
Wspólny rozwój i funkcje
Interfejs ML-IAP-Kokkos, opracowany wspólnie przez firmy NVIDIA i National Laboratories, wykorzystuje język Cython jako pomost pomiędzy Pythonem a C++/Kokkos LAMMPS, zapewniając kompleksową akcelerację GPU. Interfejs ten pozwala zewnętrznym programistom łączyć swoje modele PyTorch, umożliwiając skalowalne symulacje LAMMPS. System może obsługiwać duże zbiory danych, umożliwiając naukowcom badanie reakcji chemicznych i właściwości materiałów z niespotykaną dotąd dokładnością i szybkością.
Analiza porównawcza i wydajność
Wydajność interfejsu została porównana z modelami HIPPYNN na maksymalnie 512 procesorach graficznych NVIDIA H100 i wykazała znaczną poprawę szybkości. Testy te wykazały wzrost wydajności dzięki wykorzystaniu haków komunikacyjnych, które redukują liczbę atomów-duchów, optymalizując proces symulacji. Integracja zmniejsza całkowitą liczbę przetwarzanych atomów, prowadząc do znacznego przyspieszenia czasu symulacji.
Analiza porównawcza z integracją MACE
Dalsze testy polegały na porównaniu interfejsu ML-IAP-Kokkos z MACE MLIP, co wykazało, że nowa wtyczka oferuje lepszą szybkość i wydajność pamięci. Wynika to z przyspieszenia modelu przez cuEquivariance i ulepszonych możliwości przekazywania komunikatów w interfejsie.
Implikacje na przyszłość
Interfejs ML-IAP-Kokkos pozycjonuje się jako kluczowe narzędzie do symulacji MD z wykorzystaniem wielu procesorów graficznych i wielu węzłów przy użyciu MLIP. Wypełnia on lukę między nowoczesnymi polami siłowymi opartymi na uczeniu maszynowym a wysokowydajnymi infrastrukturami obliczeniowymi, umożliwiając badaczom wydajną symulację bardzo dużych systemów. Integracja sztucznej inteligencji z dynamiką molekularną stanowi duży krok naprzód w badaniach obliczeniowych i obiecuje napędzać przyszłe innowacje w tej dziedzinie.
Więcej informacji można znaleźć na stronie Blog NVIDIA.
Obraz źródłowy: Shutterstock