日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

国内首个「混合推理模型」Qwen3深夜开源,盘点它的N种对接方式!

發(fā)布時(shí)間:2025/5/22 编程问答 74 如意码农
生活随笔 收集整理的這篇文章主要介紹了 国内首个「混合推理模型」Qwen3深夜开源,盘点它的N种对接方式! 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

今日凌晨,通義千問(wèn)團(tuán)隊(duì)正式開(kāi)源了 Qwen3 大模型,并且一口氣發(fā)布了 8 個(gè)型號(hào),其中包括 0.6B、1.7B、4B、8B、14B、32B 以及 30B-A3B 和 235B-A22B,使用者可以根據(jù)自己的業(yè)務(wù)情況,選擇合適的版本進(jìn)行使用。

更讓人驚喜的是,最新的 Qwen3 系列模型具備雙模推理能力(深入思考/快速響應(yīng))、支持 119 種語(yǔ)言及方言,并強(qiáng)化了 Agent 功能與代碼執(zhí)行能力,全面滿足復(fù)雜問(wèn)題處理與全球化應(yīng)用需求。

PS:Qwen3 也是國(guó)內(nèi)首個(gè)「混合推理模型」,「快思考」與「慢思考」集成進(jìn)同一個(gè)模型,對(duì)簡(jiǎn)單需求可低算力「秒回」答案,對(duì)復(fù)雜問(wèn)題可多步驟「深度思考」,大大節(jié)省算力消耗。

Qwen3 旗艦?zāi)P?Qwen3-235B-A22B 在代碼、數(shù)學(xué)、通用能力等基準(zhǔn)測(cè)試中,與 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等頂級(jí)模型相比,表現(xiàn)出極具競(jìng)爭(zhēng)力的結(jié)果。此外,小型 MoE 模型 Qwen3-30B-A3B 的激活參數(shù)數(shù)量是 QwQ-32B 的 10%,表現(xiàn)更勝一籌,甚至像 Qwen3-4B 這樣的小模型也能匹敵 Qwen2.5-72B-Instruct 的性能,以下是測(cè)試報(bào)告:

對(duì)接 Qwen3

常見(jiàn)對(duì)接大模型的方案有以下幾種:

  1. 官方對(duì)接方式:例如,調(diào)用阿里百煉平臺(tái)對(duì)接 Qwen3。
  2. 本地模型對(duì)接方式:安裝 Ollama 部署 Qwen3,對(duì)接 Ollama 實(shí)現(xiàn)調(diào)用。
  3. 三方平臺(tái)對(duì)接方式:使用千帆或火山引擎等三方平臺(tái),對(duì)接調(diào)用 Qwen3。

但目前因?yàn)?Qwen3 剛剛發(fā)布,所以只能使用前兩種對(duì)接方式,截止發(fā)稿時(shí),三方平臺(tái)還未上線 Qwen3,但也夠用了。

具體實(shí)現(xiàn)

接下來(lái)我們就以官方的調(diào)用方式,來(lái)實(shí)現(xiàn)一下 Qwen3 的具體代碼對(duì)接吧,這里提供 Spring AI 和 LangChain4j 兩種對(duì)接實(shí)現(xiàn)。

Spring AI 對(duì)接 Qwen3

1.添加依賴

Spring AI 并沒(méi)有內(nèi)置阿里云百煉平臺(tái),但百煉平臺(tái)支持 OpenAI 協(xié)議,因此我們可以使用 OpenAI 對(duì)接百煉平臺(tái),因此我們只需要添加 OpenAI 依賴即可。

<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-starter-model-openai</artifactId>
</dependency>

2.設(shè)置配置信息

spring:
ai:
openai:
base-url: https://dashscope.aliyuncs.com/compatible-mode/
api-key: ${ALIYUN-AK}
chat:
options:
model: qwen3-235b-a22b

其中:

  • base-url 填寫(xiě)百煉平臺(tái)地址。
  • api-key 為準(zhǔn)備階段在百煉平臺(tái)申請(qǐng)的 AK 憑證。
  • model 設(shè)置為 qwen3-235b-a22b 模型。

支持的模型列表參考官方文檔:https://help.aliyun.com/zh/model-studio/models?spm=a2c4g.11186623.0.0.78d848237YTeH1#cefdf0875dorc

3.編寫(xiě)調(diào)用代碼

import org.springframework.ai.openai.OpenAiChatModel;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RequestParam;
import org.springframework.web.bind.annotation.RestController; @RestController
@RequestMapping("/ds")
public class TestController { private final OpenAiChatModel chatModel; @Autowired
public TestController(OpenAiChatModel chatModel) {
this.chatModel = chatModel;
} @RequestMapping("/chat")
public String chat(@RequestParam("msg") String msg) {
String result = chatModel.call(msg);
System.out.println("返回結(jié)果:" + result);
return result;
}
}

LangChain4j 對(duì)接 Qwen3

LangChain4j 內(nèi)置集成了阿里云百煉平臺(tái),所以可以直接對(duì)接。

1.添加依賴

<dependency>
<groupId>dev.langchain4j</groupId>
<artifactId>langchain4j-community-dashscope-spring-boot-starter</artifactId>
</dependency>

可以為“l(fā)angchain4j-community-xxx”其添加統(tǒng)一版本管理:

<dependencyManagement>
<dependencies>
<dependency>
<groupId>dev.langchain4j</groupId>
<artifactId>langchain4j-community-bom</artifactId>
<version>1.0.0-beta3</version>
<type>pom</type>
<scope>import</scope>
</dependency>
</dependencies>
</dependencyManagement>

2.設(shè)置配置信息

注意這里需要配置“chat-model”節(jié)點(diǎn),官方文檔有問(wèn)題,如果不配置 chat-model 則不能自動(dòng)注入百煉模型:

langchain4j:
community:
dashscope:
base-url: https://dashscope.aliyuncs.com/compatible-mode/
chat-model:
api-key: ${ALIYUN-AK}
model-name: qwen-plus

支持的模型列表:https://help.aliyun.com/zh/model-studio/models

3.編寫(xiě)調(diào)用代碼

import dev.langchain4j.model.chat.ChatLanguageModel;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RestController; @RestController
@RequestMapping("/qw")
public class QwenController { @Autowired
private ChatLanguageModel qwenChatModel; @RequestMapping("/chat")
public String chat(String question) {
return qwenChatModel.chat(question);
}
}

小結(jié)

當(dāng)然,以上對(duì)接方式是全量輸出(得到結(jié)果之后一次性返回),生產(chǎn)級(jí)別我們通常要使用流式輸出,并且需要實(shí)現(xiàn)連續(xù)(上下文)對(duì)話,以及歷史對(duì)話信息持久化等功能,文章篇幅有限,這里就不一一實(shí)現(xiàn)了,大家可以下來(lái)自己試試。

本文已收錄到我的技術(shù)小站 www.javacn.site,其中包含的內(nèi)容有:Spring AI、LangChain4j、MCP、Function Call、RAG、向量數(shù)據(jù)庫(kù)、Prompt、多模態(tài)、向量數(shù)據(jù)庫(kù)、嵌入模型等內(nèi)容。

總結(jié)

以上是生活随笔為你收集整理的国内首个「混合推理模型」Qwen3深夜开源,盘点它的N种对接方式!的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。