-
Notifications
You must be signed in to change notification settings - Fork 59
Commit
This commit does not belong to any branch on this repository, and may belong to a fork outside of the repository.
- Loading branch information
Showing
5 changed files
with
157 additions
and
0 deletions.
There are no files selected for viewing
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
Original file line number | Diff line number | Diff line change |
---|---|---|
@@ -0,0 +1 @@ | ||
Placeholder. DO NOT DELETE. |
156 changes: 156 additions & 0 deletions
156
i18n/zh-cn/docusaurus-plugin-content-blog/qwen-or-chatgpt.md
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
Original file line number | Diff line number | Diff line change |
---|---|---|
@@ -0,0 +1,156 @@ | ||
--- | ||
title: 通义千问“客串”ChatGPT,你分的清吗 | ||
keywords: [Higress,Wasm,AI,Qwen,ChatGPT,NextChat] | ||
description: 基于通义千问大模型,使用 Higress 和 NextChat 搭建跨平台的私人 ChatGPT 应用 | ||
author: CH3CHO | ||
date: 2024-05-11 | ||
--- | ||
|
||
## 引子 | ||
|
||
现在 AI 大模型的发展如火如荼,OpenAI 的 ChatGPT 和阿里云的通义千问作为全球领先的大模型服务,使用者众多。今天闲来无事,我就想对比一下这两个服务的能力。而且正好在本文写作的前几天,5 月 9 日,[阿里云正式发布了通义千问 2.5,并开源了通义千问 1100 亿参数模型。](https://mp.weixin.qq.com/s/hU5YDkjiAsAYl8h2akl14Q)。那么本次测试我们就来测试一下 ChatGPT 中最高级的模型 GPT-4-Turbo 和通义千问 2.5 对应的 Qwen-Max 模型。 | ||
|
||
## ChatGPT vs 通义千问 | ||
|
||
在本次测试中,我们会向两个大模型分别提出相同的问题,看看它们会如何回答。同时也请各位猜猜哪些回答来自 ChatGPT,而哪些又来自通义千问。我们会在文末揭晓答案。 | ||
|
||
1. 创意故事讲述 | ||
问题: | ||
请讲述一个涉及时间旅行的短故事,主角是一位带着宠物猫进行时空穿越的中国科学家。 | ||
|
||
2. 想象力挑战 | ||
问题: | ||
如果某天科技发达到可以让我们与书中角色对话,你会选择哪位角色,为什么?请模拟一段对话。 | ||
|
||
3. 解决难题 | ||
问题: | ||
描述一种新发明,它能解决全球变暖问题,但它的工作原理基于目前科学无法解释的现象。 | ||
|
||
4. 情感智能 | ||
问题: | ||
如果一个人感到孤独,你作为AI会如何安慰他/她?请给出具体的对话实例。 | ||
|
||
5. 逻辑谜题 | ||
问题: | ||
提出一个逻辑谜题,解答既要求逻辑推理,同时还需要一定的创造力。 | ||
|
||
<!-- ![qns-1](../../../static/img/blog/qwen-or-chatgpt/1.png) | ||
![qns-2](../../../static/img/blog/qwen-or-chatgpt/2.png) | ||
![qns-3](../../../static/img/blog/qwen-or-chatgpt/3.png) | ||
![qns-4](../../../static/img/blog/qwen-or-chatgpt/4.png) | ||
![qns-5](../../../static/img/blog/qwen-or-chatgpt/5.png) | ||
![qns-6](../../../static/img/blog/qwen-or-chatgpt/6.png) --> | ||
|
||
大家觉得它们回答的怎么样呢?能不能看出来哪些回答实际是出自通义千问之“口”呢? | ||
|
||
## 测试应用介绍 | ||
|
||
看完上面这些对话截图,不知道各位是否想知道这个测试应用到底是什么,以及它又是如何同时支持 ChatGPT 和通义千问两个大模型服务提供商的呢?下面我就来为大家介绍一下。 | ||
|
||
这个测试软件的界面部分来自于 [NextChat (ChatGPT Next Web)](https://github.com/ChatGPTNextWeb/ChatGPT-Next-Web)。它是一个可以私有化部署的 ChatGPT 网页应用,目前支持对接 OpenAI、Azure OpenAI、Google Gemini Pro 和 Anthropic Claude 这些服务提供商。 | ||
|
||
看了对 NextChat 的介绍,大家会发现,“它并不支持对接通义千问啊!你不会根本就没测通义千问吧?”那当然不会了。说到对接通义千问,那就轮到我们的 Higress 出场了。 | ||
|
||
Higress 是基于阿里内部的 Envoy Gateway 实践沉淀、以开源 Istio + Envoy 为核心构建的云原生 API 网关。基于 Envoy 提供的 Wasm 扩展能力,Higress 近期推出了 AI 服务代理插件。这一插件可以统一各种大模型服务提供商对外暴露的不同接口契约,对外以 OpenAI API 的接口契约对外提供服务。通过调整路由规则和插件配置,用户可以很方便的在不同的大模型服务提供商之间进行切换。 | ||
|
||
虽然被称作云原生网关,但 Higress 不仅能在 K8s 中部署,它还可以以单一容器配合配置文件的形式运行。而本次测试就利用了 Higress 的这一能力。接下来我们就来看看这个测试平台具体是如何搭建起来的。 | ||
|
||
## 测试平台搭建 | ||
|
||
**第一步:**创建一个名为 `docker-compose.yml` 的文件,并填入以下内容: | ||
|
||
> 注意: | ||
> 1. 其中的 `YOUR_DASHSCOPE_API_KEY` 和 `YOUR_DASHSCOPE_API_KEY` 需要分别替换为你自己的通义千问和 OpenAI 的 API Key; | ||
> 2. `/path-to-local-config-folder` 需要替换为一个本地可以用来保存配置文件的目录路径。 | ||
```yaml | ||
version: '3.9' | ||
|
||
networks: | ||
higress-net: | ||
external: false | ||
|
||
services: | ||
higress: | ||
image: higress-registry.cn-hangzhou.cr.aliyuncs.com/higress/all-in-one:1.3.6 | ||
environment: | ||
- MODE=gateway | ||
- CONFIG_TEMPLATE=ai-proxy | ||
- DEFAULT_AI_SERVICE=openai | ||
- DASHSCOPE_API_KEY=YOUR_DASHSCOPE_API_KEY | ||
- OPENAI_API_KEY=YOUR_OPENAI_API_KEY | ||
networks: | ||
- higress-net | ||
ports: | ||
- "8080:8080/tcp" | ||
- "8001:8001/tcp" | ||
volumes: | ||
- /path-to-local-config-folder:/data | ||
restart: always | ||
nextchat: | ||
image: yidadaa/chatgpt-next-web | ||
environment: | ||
- OPENAI_API_KEY=unused | ||
- BASE_URL=http://higress:8080 | ||
networks: | ||
- higress-net | ||
ports: | ||
- "3000:3000/tcp" | ||
restart: always | ||
``` | ||
**第二步:**在命令行中运行以下命令,启动 docker compose 项目: | ||
```bash | ||
docker compose -p higress-ai up -d | ||
``` | ||
|
||
**第三步:**在浏览器里访问 http://localhost:3000/,打开 NextChat 页面; | ||
|
||
![nextchat-homepage](../../../static/img/blog/qwen-or-chatgpt/nextchat-homepage.png) | ||
|
||
**第四步:**点击对话输入框工具栏最右侧的模型设置按钮,将模型切换为 `gpt-4-turbo` 并关闭窗口。 | ||
|
||
![nextchat-model-setting](../../../static/img/blog/qwen-or-chatgpt/nextchat-model-setting.png) | ||
|
||
**完成!**现在你就可以与 AI 进行对话了。 | ||
|
||
![nextchat-first-msg](../../../static/img/blog/qwen-or-chatgpt/nextchat-first-msg.png) | ||
|
||
按照上面文件进行配置,默认和你对话的将是 OpenAI ChatGPT。如果想切换到通义千问,只需要将文件中的 `DEFAULT_AI_SERVICE=openai` 修改为 `DEFAULT_AI_SERVICE=qwen`,然后重新启动 docker compose 项目即可。 | ||
|
||
```bash | ||
docker compose -p higress-ai down | ||
docker compose -p higress-ai up -d | ||
``` | ||
|
||
整个流程是不是很简单呢?欢迎各位也在本地尝试一下。 | ||
|
||
## Higress AI 代理插件介绍 | ||
|
||
从上面的搭建流程来看,Higress AI 代理插件可以很方便的让 AI 对话应用直接对接通义千问等接口契约不同的大模型服务。除了通义千问和 ChatGPT 之外,这个插件还支持 Azure OpenAI 和月之暗面(Moonshot)等大模型服务提供商,并且支持配置一个外部文件地址作为聊天上下文,可以用来快速搭建一个个人 AI 助理服务。 | ||
|
||
整个插件使用 Go 语言进行开发。如果大家有任何需求,也可以很方便的对其进行二次开发,比如对接新的大模型服务,自定义 system prompt 等等。也欢迎大家把自己开发的功能贡献给社区,造福所有 Higress 的用户。 | ||
|
||
此外,由中国科学院软件研究所“开源软件供应链点亮计划”发起并长期支持的暑期开源活动“开源之夏”正在进行中。Higress 也有两个与 AI 相关的项目参与其中,分别是“实现基于向量相似度实现LLM结果召回的WASM插件”和“基于AI网关实现AI模型的轻量化部署”。欢迎各位在校同学积极报名参与。详情可查看开源之夏的 [Higress 社区页面](https://summer-ospp.ac.cn/org/orgdetail/1f8ea42c-86c9-46b8-b1f5-344de5741ef0)。 | ||
|
||
## 答案揭晓 | ||
|
||
最后,我们来揭晓前面问题的答案。不知道各位猜对了吗? | ||
|
||
<!-- ![qns-1m](../../../static/img/blog/qwen-or-chatgpt/1m.png) | ||
![qns-2m](../../../static/img/blog/qwen-or-chatgpt/2m.png) | ||
![qns-3m](../../../static/img/blog/qwen-or-chatgpt/3m.png) | ||
![qns-4m](../../../static/img/blog/qwen-or-chatgpt/4m.png) | ||
![qns-5m](../../../static/img/blog/qwen-or-chatgpt/5m.png) | ||
![qns-6m](../../../static/img/blog/qwen-or-chatgpt/6m.png) --> |
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.