Alibaba uruchamia kompaktowe modele Qwen 3.5, które działają bezpośrednio na laptopach i przewyższają odpowiedniki od OpenAI.

Alibaba uruchamia kompaktowe modele Qwen 3.5, które działają bezpośrednio na laptopach i przewyższają odpowiedniki od OpenAI.

8 hardware

Alibaba Qwen 3.5 — nowa seria kompaktowych modeli AI

W ramach swojego poddziału zajmującego się sztuczną inteligencją Alibaba ogłosiła wydanie linii modeli Qwen 3.5, które obiecują „mały rozmiar + wysoka efektywność”. W porównaniu z amerykańskimi odpowiednikami wykazują lepszą dokładność przy mniejszym zużyciu pamięci.

ModelRozmiarKluczowe cechy
Qwen 3.5‑0.8B0,8 mld parametrów„Miniaturowy” i „szybki”, przeznaczony do prototypów i urządzeń mobilnych o ograniczonej autonomii
Qwen 3.5‑2B2 mldPodobny do 0.8B, ale nieco mocniejszy
Qwen 3.5‑4B4 mldMultimodalny, okno kontekstowe 262 144 tokenów; nadaje się do lekkich rozwiązań agentowych
Qwen 3.5‑9B9 mldPotrafi dedukować, przewyższa OpenAI gpt‑oss‑120B (13,5× więcej parametrów) i wykazuje poziom studenta doktoranckiego w logicznym myśleniu

Wszystkie modele są dostępne na licencji Apache 2.0, co pozwala ich używać w projektach komercyjnych oraz dalsze uczenie przy potrzebie.

Co nowego w architekturze?
Alibaba zrezygnowała z klasycznych Transformerów i zastosowała hybrydowy schemat:

* Gated Delta Networks (GDN) – zapewniają wysoką przepustowość i niskie opóźnienia.
* Mixture‑of‑Experts (MoE) – rozwiązują problem ograniczonej pamięci, charakterystyczny dla małych modeli.

Dzięki temu Qwen 3.5 może pracować z multimodalnymi tokenami od razu, a nie „przyczepiać” generatory obrazów do modeli tekstowych, jak to robiły poprzednie pokolenia. W rezultacie wersje 4B i 9B potrafią rozpoznawać elementy UI i liczyć obiekty wideo.

Testy i wyniki
| Benchmark | Qwen 3.5‑9B |
|---|---|
| Porównanie | MMMU‑Pro (wizualny) | 70,1 % – przewyższa Google Gemini 2.5 Flash‑Lite (59,7) oraz specjalistyczną Qwen 3‑VL‑30B‑A3B (63,0) |
| Logiczne myślenie | 81,7 % – więcej niż OpenAI gpt‑oss‑120B (80,1), choć ostatni ma 10× więcej parametrów |
| HMMT Feb 2025 (matematyka) | 83,2 % (9B), 74,0 % (4B) – udowodniło, że do zadań naukowych nie potrzebne są gigantyczne zasoby chmurowe |
| OmniDocBench v1.58 | 7,7 % – lider wśród wszystkich modeli |
| MMMLU (wielojęzyczność) | 81,2 % – przewyższa gpt‑oss‑120B (78,2 %) |

Dlaczego to ważne?
Pojawienie się Qwen 3.5 pokryło się rosnącym zapotrzebowaniem na autonomiczne agenty AI. Współczesny użytkownik wymaga nie tylko chatbotów, ale także systemów, które:

1. Myślą – rozważają zadania.
2. Widzą – przetwarzają obrazy, wideo i elementy UI.
3. Działają – potrafią korzystać z narzędzi (wypełnianie formularzy, sortowanie plików).

Biorąc pod uwagę, że duże modele (trzy‑pięciokrotne miliardy parametrów) są drogie w eksploatacji, Qwen 3.5 to bardziej ekonomiczne rozwiązanie. Modele można uruchamiać lokalnie bez połączenia z chmurą i API, a uczenie ze wzmocnieniem pozwala im podejmować „ludzkie decyzje” – na przykład organizować pulpit lub tworzyć kod na podstawie nagrania wideo.

Praktyczne zastosowanie
* Urządzenia mobilne – 0,8 mld parametrów łatwo zmieszcza się w smartfonie i zapewnia autonomiczną pracę.
* Stacje robocze – 9 mld parametrów daje pełen zestaw funkcji agenta AI bez chmury.
* Agencja interfejsu – dzięki „przywiązaniu na poziomie pikseli” modele mogą poruszać się po UI, wypełniać formularze i sortować pliki, wykonując proste polecenia w języku naturalnym z dokładnością około 90 %.

W ten sposób Alibaba Qwen 3.5 otwiera drogę do bardziej dostępnych, elastycznych i potężnych agentów AI, które mogą działać zarówno w chmurze, jak i lokalnie, spełniając rosnące wymagania współczesnego użytkownika.

Komentarze (0)

Podziel się swoją opinią — prosimy o uprzejmość i trzymanie się tematu.

Nie ma jeszcze komentarzy. Zostaw komentarz i podziel się swoją opinią!

Aby dodać komentarz, zaloguj się.

Zaloguj się, aby komentować