市場焦點/阿里新一代AI基座模型 最快春節開源
阿里巴巴(09988)近期將旗下AI產品總稱與核心品牌統一為「千問」,並即將發布新一代基座模型Qwen 3.5。據悉,其代碼已提交至全球最大AI開源平台Hugging Face,申請併入Transformers庫,預估最快將於春節期間開源。與此同時,DeepSeek v4、GLM-5等眾多新模型也蓄勢待發,業界人士因此形容,中國大模型領域的「瘋狂2月」即將揭開序幕。\大公報記者 李潔儀
在全球知名開源平台Hugging Face上,已出現將Qwen 3.5模型併入Transformers庫的合併請求,意味阿里千問新一代基座模型Qwen 3.5或發布在即。相關技術資訊透露,Qwen 3.5採用全新的混合注意力機制,並極有可能是原生支持視覺理解的視覺語言模型(VLM),代表千問模型系列迎來一次重要架構升級。
Qwen 3.5支援視覺理解
有開發者進一步披露,Qwen 3.5開源版本可能至少包含20億參數的密集模型,以及參數規模介於350億至30億之間的MoE(專家混合)模型。
此前已有外媒引述消息指出,Qwen 3.5計劃於春節期間開源。近日,智譜(02513)首席科學家唐傑在微博透露,近期將有多款新模型集中亮相,包括DeepSeek v4、Qwen 3.5及GLM-5等。此言一出,迅速在業內引發熱議,「中國大模型瘋狂2月」的說法隨之傳開。
阿里巴巴自2023年正式推出Qwen大模型以來,持續推進技術迭代,並於2025年4月發布3.0版本,成為內地首個「混合推理模型」。該模型將「快思考」與「慢思考」集成於同一架構中,大大節省算力消耗。
阿里雲通義實驗室自2025年底開展Qwen 3.5的研發,團隊整合了Qwen 3-Max的萬億級參數優勢,以及Qwen 3-Coder-Next的高效推理架構,並透過混合注意力機制與混合專家模型的進一步優化,實現了性能與效率之間的更好平衡。在處理長文本任務時,該模型能夠更靈活地分配計算資源,既能精準捕捉細節,亦大幅提升整體運算效率。
增強自駕與遠程醫療等應用
在視覺語言模型能力方面,Qwen 3.5無需額外插件,即可直接處理文字、圖片與視頻等多模態信息,這將大幅增強其在智能客服、自動駕駛場景識別、遠程醫療影像分析,以及工業質檢等多種實際應用場景中的落地能力,為產業智能化提供更強大的技術支持。