DeepSeek wybrała Huawei zamiast Nvidii do opracowania swojego następnego modelu sztucznej inteligencji
DeepSeek preferuje chińskie akceleratory w ostatecznej optymalizacji modeli AI
*Jak informuje Reuters*, w procesie opracowywania dużych modeli językowych istnieje końcowy etap, kiedy przed wydaniem produktu przeprowadzają się one drobne dostrajanie na specjalistycznych przyspieszaczach obliczeniowych. W przypadku najnowszego modelu DeepSeek (V4) firma wybrała do tej pracy chińskich dostawców – Huawei i innych krajowych producentów.
Dlaczego to ważne
Zgodnie z analizą Reuters, „prawo pierwszej nocy małżeńskiej” w branży zwykle należało do amerykańskich gigantów, głównie Nvidia. Do niedawna DeepSeek podążała za tym trendem: ich modele były optymalizowane właśnie na akceleratorach Nvidia. Nowa wersja V4 została jednak dostrojona do chińskich platform. Kilka tygodni przed premierą firma udostępniła model tylko krajowym dostawcom akceleratorów, aby maksymalnie wykorzystać cechy lokalnej infrastruktury sprzętowej i zwiększyć efektywność pracy AI.
Szybkość optymalizacji
Niezależni eksperci zauważają, że współczesne narzędzia pozwalają zakończyć dostrajanie w kilka tygodni, w przeciwieństwie do kilku miesięcy wymaganych wcześniej. Sugeruje to wysoki stopień gotowości chińskich technologii do masowego zastosowania.
Kontekst polityczny
Według analityków taki priorytetowy podejście odpowiada polityce państwowej Chin: sprzęt i oprogramowanie krajowego pochodzenia zyskują przewagę nad zagranicznymi odpowiednikami. Niemniej jednak informacja, że DeepSeek korzystała z tajnych centrów przetwarzania danych na akceleratorach Nvidia Blackwell do szkolenia V4, przeczy deklaracji firmy o przejściu na Huawei. Amerykańscy urzędnicy obawiają się, że firma może ukryć fakt użycia Blackwell i oficjalnie ogłosić współpracę z chińskimi akceleratorami.
W ten sposób DeepSeek demonstruje wyraźny przesunięcie w stronę lokalnych technologii, jednocześnie borykając się z wyzwaniami przejrzystości i międzynarodowej konkurencji.
Komentarze (0)
Podziel się swoją opinią — prosimy o uprzejmość i trzymanie się tematu.
Zaloguj się, aby komentować