Alibaba uruchamia kompaktowe modele Qwen 3.5, które działają bezpośrednio na laptopach i przewyższają odpowiedniki od OpenAI.
Alibaba Qwen 3.5 — nowa seria kompaktowych modeli AI
W ramach swojego poddziału zajmującego się sztuczną inteligencją Alibaba ogłosiła wydanie linii modeli Qwen 3.5, które obiecują „mały rozmiar + wysoka efektywność”. W porównaniu z amerykańskimi odpowiednikami wykazują lepszą dokładność przy mniejszym zużyciu pamięci.
| Model | Rozmiar | Kluczowe cechy |
|---|---|---|
| Qwen 3.5‑0.8B | 0,8 mld parametrów | „Miniaturowy” i „szybki”, przeznaczony do prototypów i urządzeń mobilnych o ograniczonej autonomii |
| Qwen 3.5‑2B | 2 mld | Podobny do 0.8B, ale nieco mocniejszy |
| Qwen 3.5‑4B | 4 mld | Multimodalny, okno kontekstowe 262 144 tokenów; nadaje się do lekkich rozwiązań agentowych |
| Qwen 3.5‑9B | 9 mld | Potrafi dedukować, przewyższa OpenAI gpt‑oss‑120B (13,5× więcej parametrów) i wykazuje poziom studenta doktoranckiego w logicznym myśleniu |
Wszystkie modele są dostępne na licencji Apache 2.0, co pozwala ich używać w projektach komercyjnych oraz dalsze uczenie przy potrzebie.
Co nowego w architekturze?
Alibaba zrezygnowała z klasycznych Transformerów i zastosowała hybrydowy schemat:
* Gated Delta Networks (GDN) – zapewniają wysoką przepustowość i niskie opóźnienia.
* Mixture‑of‑Experts (MoE) – rozwiązują problem ograniczonej pamięci, charakterystyczny dla małych modeli.
Dzięki temu Qwen 3.5 może pracować z multimodalnymi tokenami od razu, a nie „przyczepiać” generatory obrazów do modeli tekstowych, jak to robiły poprzednie pokolenia. W rezultacie wersje 4B i 9B potrafią rozpoznawać elementy UI i liczyć obiekty wideo.
Testy i wyniki
| Benchmark | Qwen 3.5‑9B |
|---|---|
| Porównanie | MMMU‑Pro (wizualny) | 70,1 % – przewyższa Google Gemini 2.5 Flash‑Lite (59,7) oraz specjalistyczną Qwen 3‑VL‑30B‑A3B (63,0) |
| Logiczne myślenie | 81,7 % – więcej niż OpenAI gpt‑oss‑120B (80,1), choć ostatni ma 10× więcej parametrów |
| HMMT Feb 2025 (matematyka) | 83,2 % (9B), 74,0 % (4B) – udowodniło, że do zadań naukowych nie potrzebne są gigantyczne zasoby chmurowe |
| OmniDocBench v1.58 | 7,7 % – lider wśród wszystkich modeli |
| MMMLU (wielojęzyczność) | 81,2 % – przewyższa gpt‑oss‑120B (78,2 %) |
Dlaczego to ważne?
Pojawienie się Qwen 3.5 pokryło się rosnącym zapotrzebowaniem na autonomiczne agenty AI. Współczesny użytkownik wymaga nie tylko chatbotów, ale także systemów, które:
1. Myślą – rozważają zadania.
2. Widzą – przetwarzają obrazy, wideo i elementy UI.
3. Działają – potrafią korzystać z narzędzi (wypełnianie formularzy, sortowanie plików).
Biorąc pod uwagę, że duże modele (trzy‑pięciokrotne miliardy parametrów) są drogie w eksploatacji, Qwen 3.5 to bardziej ekonomiczne rozwiązanie. Modele można uruchamiać lokalnie bez połączenia z chmurą i API, a uczenie ze wzmocnieniem pozwala im podejmować „ludzkie decyzje” – na przykład organizować pulpit lub tworzyć kod na podstawie nagrania wideo.
Praktyczne zastosowanie
* Urządzenia mobilne – 0,8 mld parametrów łatwo zmieszcza się w smartfonie i zapewnia autonomiczną pracę.
* Stacje robocze – 9 mld parametrów daje pełen zestaw funkcji agenta AI bez chmury.
* Agencja interfejsu – dzięki „przywiązaniu na poziomie pikseli” modele mogą poruszać się po UI, wypełniać formularze i sortować pliki, wykonując proste polecenia w języku naturalnym z dokładnością około 90 %.
W ten sposób Alibaba Qwen 3.5 otwiera drogę do bardziej dostępnych, elastycznych i potężnych agentów AI, które mogą działać zarówno w chmurze, jak i lokalnie, spełniając rosnące wymagania współczesnego użytkownika.
Komentarze (0)
Podziel się swoją opinią — prosimy o uprzejmość i trzymanie się tematu.
Zaloguj się, aby komentować