Alibaba представила новітню «думаючу» AI-модель з відкритим кодом. За даними самого китайського IT-гіганта, модель QwQ-32B перевершує за продуктивністю гучну DeepSeek-R1 і o1-mini від OpenAI.
Акції Alibaba вже подорожчали на кілька відсотків на тлі цих новин. Незважаючи на відносно скромні 32 млрд параметрів, модель, імовірно, перевершує R1 із 671 млрд параметрів у математиці, програмуванні та розв’язанні задач загалом. Принаймні, так стверджує команда, яка відповідає за моделі сімейства Qwen.
В Alibaba зазначають, що менша кількість параметрів дозволяє працювати з нижчими вимогами до обчислювальних ресурсів, тому її можна буде широко впроваджувати в різних сферах.
Поява нової міркувальної моделі відбулася менш ніж через два місяці після того, як DeepSeek сколихнула ринок AI, запропонувавши світові R1.
Події розгортаються на тлі буму впровадження штучного інтелекту в КНР — у лютому Alibaba пообіцяла інвестувати $52 млрд у AI та хмарні обчислення протягом наступних трьох років. Це стало найбільшим в історії обчислювальним проєктом, профінансованим у Китаї однією компанією.
Alibaba приділила увагу не лише DeepSeek і вже заявила, що її новинка перевершила o1-mini від OpenAI, яка має 100 млрд параметрів. Ознайомитися з моделлю можна на платформі Hugging Face — найбільшій у світі спільноті AI-моделей із відкритим кодом.
Повідомляється, що методика навчання нової моделі схожа з тією, що застосовувалася для R1, з використанням «навчання з підкріпленням».
Нещодавно представник Alibaba вже заявив, що головним завданням бізнесу є створення AI-моделі із «загальним штучним інтелектом» — такої, що дорівнює людині за «якістю» мислення або навіть перевершує її. За оцінками Alibaba, йдеться про рівень, на якому AI досягне 80% можливостей людської свідомості.
Попередній перегляд моделі доступний на сайті компанії без необхідності змінювати IP чи використовувати інші хитрощі — наявні моделі вже перевершують R1 за низкою параметрів. Наприклад, вони здатні непогано малювати.
Довжина контексту нової моделі також була збільшена до 131 000 токенів — аналогічно до 128 000 токенів у моделях OpenAI та багатьох інших, хоча контекст Google Gemini 2.0 досі перевершує їх і становить 2 мільйони токенів. (Нагадаємо, що контекст відноситься до кількості токенів, які LLM може ввести/вивести за одну взаємодію, причому більша кількість токенів означає більше інформації. 131 000 токенів еквівалентні приблизно 300-сторінковій книзі).