Lark ×(GPT-4 + DALL·E + Whisper)
🚀 Lark OpenAI 🚀
English · 简体中文· 繁體中文 · 日本語 · Tiếng Việt
🗣 Giao tiếp bằng giọng nói: Nhắn riêng tư trực tiếp với các robot
💬 Đối thoại đa chủ đề: Hỗ trợ thảo luận đa chủ đề trong cuộc trò chuyện riêng tư và nhóm, hiệu quả và liên kết
🖼 Đồ thị văn bản: Hỗ trợ đồ thị văn bản và tìm kiếm đồ thị
🛖 Cài đặt cảnh: Danh sách cảnh tích hợp sẵn, chuyển đổi vai trò AI chỉ với một cú nhấp chuột
🎭 Trò chơi vai trò: Hỗ trợ chế độ cảnh, thêm niềm vui và thảo luận sáng tạo
🤖 Chế độ AI: 4 chế độ AI tích hợp sẵn, cảm nhận sự thông minh và sáng tạo của AI
🔄 Bảo tồn ngữ cảnh: Trả lời cuộc đối thoại để tiếp tục thảo luận chủ đề tương tự
⏰ Tự động kết thúc: Tự động kết thúc cuộc đối thoại khi quá thời gian, hỗ trợ xóa lịch sử thảo luận
📝 Thẻ văn bản phong phú: Hỗ trợ trả lời bằng thẻ văn bản phong phú, mang đến thông tin đa sắc màu hơn
👍 Phản hồi tương tác: Truy cập ngay vào kết quả xử lý của robot
🎰 Truy vấn cân đối: Nhận thông tin tiêu thụ token theo thời gian thực
🔙 Quay lại lịch sử từng File: Dễ dàng quay lại lịch sử đối thoại từng File và tiếp tục thảo luận chủ đề🚧
🔒 Chế độ quản trị: Chế độ quản trị tích hợp sẵn, sử dụng an toàn và đáng tin cậy hơn🚧
🌐 Cân bằng tải đa token: Tối ưu hóa các tình huống gọi tần suất cao ở mức sản xuất
↩️ Hỗ trợ proxy ngược: Cung cấp trải nghiệm truy cập nhanh hơn và ổn định hơn cho người dùng ở các vùng khác nhau
📚 Tương tác với Tài liệu Flying Book: Trở thành Trợ lý Siêu hỗ trợ cho nhân viên Doanh nghiệp🚧
🎥 Chủ đề Nội dung giâ
y thành PPT: Làm báo cáo của bạn đơn giản hơn từ bây giờ trở đi🚧
📊 Phân tích bảng: Dễ dàng nhập bảng Flying Book để cải thiện hiệu suất phân tích dữ liệu🚧
🍊 Huấn luyện dữ liệu riêng tư: Sử dụng thông tin sản phẩm của công ty cho huấn luyện phụ thuộc GPT, đáp ứng tốt hơn nhu cầu cá nhân của khách hàng.🚧
- 🍏 Đối thoại dựa trên OpenAI-GPT4 và Lark
- 🥒 Hỗ trợ Serverless 、local、Docker、binary package
Phát triển cục bộ
git clone [email protected]:ConnectAI-E/lark-openai.git
cd Lark-OpenAI/code
Nếu máy chủ của bạn không có địa chỉ IP mạng công khai, bạn có thể sử dụng proxy ngược.
Máy chủ của Flying Book rất chậm khi truy cập ngrok tại Trung Quốc, vì vậy khuyến nghị sử dụng các nhà cung cấp dịch vụ proxy ngược trong nước.
# Configure config.yaml
mv config.example.yaml config.yaml
// Testing deployment.
go run ./
cpolar http 9000
//Production deployment
nohup cpolar http 9000 -log=stdout &
//Check server status
https://dashboard.cpolar.com/status
// Take down the service
ps -ef | grep cpolar
kill -9 PID
Phát triển Serverless
git clone [email protected]:ConnectAI/lark-openai.git
cd Lark-OpenAI/code
Cài đặt severlesstool
# Cấu hình config.yaml
mv config.example.yaml config.yaml
# Cài đặt severless cli
npm install @serverless-devs/s -g
Sau khi cài đặt hoàn tất, vui lòng triển khai theo môi trường cục bộ và hướng dẫn sau đây severless
- Môi trường cục bộ
linux
/mac os
- Sửa đổi Vùng triển khai và Khóa triển khai trong 's.yaml'
edition: 1.0.0
name: lark-openai
access: "aliyun" # Sửa đổi tên khóa tùy chỉnh.
vars: # Biến toàn cục
region: "cn-hongkong" # Sửa đổi vùng mà chức năng điện toán đám mây muốn triển khai.
- Triển khai chỉ bằng một cú nhấp chuột
cd ..
s deploy
- Môi trường cục bộ
Windows
- Đầu tiên mở công cụ dòng lệnh
cmd
cục bộ, chạygo env
để kiểm tra cài đặt biến môi trường go trên máy tính của bạn, xác nhận các biến và giá trị sau đây
set GO111MODULE=on
set GOARCH=amd64
set GOOS=linux
set CGO_ENABLED=0
Nếu giá trị không chính xác, ví dụ như set GOOS=windows
trên máy tính của bạn, vui lòng chạy lệnh sau để đặt giá trị biến GOOS
go env -w GOOS=linux
- Sửa đổi vùng triển khai và khóa triển khai trong
s.yaml
edition: 1.0.0
name: lark-openai
access: "aliyun" # Sửa đổi tên bí danh tùy chỉnh
vars: # Biến toàn cục
region: "cn-hongkong" # Sửa đổi vùng triển khai mong muốn cho các chức năng điện toán đám mây
- Sửa đổi
pre-deploy
trongs.yaml
, xóa phần thay đổi biến ring trước bước thứ hairun
pre-deploy:
- run: go mod tidy
path: ./code
- run: go build -o
target/main main.go # Xóa GO111MODULE=on GOOS=linux GOARCH=amd64 CGO_ENABLED=0
path: ./code
- Triển khai chỉ bằng một cú nhấp chuột
cd ..
s deploy
Phát triển Docker
docker build -t lark-openai:latest .
docker run -d --name lark-openai -p 9000:9000 \
--env APP_LANG=en \
--env APP_ID=xxx \
--env APP_SECRET=xxx \
--env APP_ENCRYPT_KEY=xxx \
--env APP_VERIFICATION_TOKEN=xxx \
--env BOT_NAME=chatGpt \
--env OPENAI_KEY="sk-xxx1,sk-xxx2,sk-xxx3" \
--env API_URL="https://api.openai.com" \
--env HTTP_PROXY="" \
feishu-chatgpt:latest
Lưu ý:
APP_LANG
là ngôn ngữ của bot Lark, ví dụ nhưen
,ja
,vi
,zh-hk
và các ngôn ngữ khác.BOT_NAME
là tên của bot Lark, ví dụ:chatGpt
.OPENAI_KEY
là mã OpenAI. Nếu bạn có nhiều mã, hãy phân tách chúng bằng dấu phẩy, ví dụ:sk-xxx1,sk-xxx2,sk-xxx3
.HTTP_PROXY
là địa chỉ proxy của máy chủ, ví dụ:http://host.docker.internal:7890
. Nếu bạn không có proxy, bạn có thể để trống phần này.API_URL
là địa chỉ kết nối API của OpenAI, ví dụ:https://api.openai.com
. Nếu bạn không có proxy ngược, bạn có thể để trống phần này.
Để triển khai phiên bản Azure
docker build -t lark-openai:latest .
docker run -d --name lark-openai -p 9000:9000 \
--env APP_LANG=vi \
--env APP_ID=xxx \
--env APP_SECRET=xxx \
--env APP_ENCRYPT_KEY=xxx \
--env APP_VERIFICATION_TOKEN=xxx \
--env BOT_NAME=chatGpt \
--env AZURE_ON=true \
--env AZURE_API_VERSION=xxx \
--env AZURE_RESOURCE_NAME=xxx \
--env AZURE_DEPLOYMENT_NAME=xxx \
--env AZURE_OPENAI_TOKEN=xxx \
feishu-chatgpt:latest
Chú ý:
APP_LANG
là ngôn ngữ của bot Lark, ví dụ nhưen
,ja
,vi
,zh-hk
và các ngôn ngữ khác.BOT_NAME
là tên của bot Lark, ví dụ:chatGpt
.AZURE_ON
chỉ ra liệu có sử dụng Azure hay không. Vui lòng đặt giá trị làtrue
.AZURE_API_VERSION
là phiên bản API Azure, ví dụ:2023-03-15-preview
.AZURE_RESOURCE_NAME
là tên tài nguyên Azure, tương tựhttps://{AZURE_RESOURCE_NAME}.openai.azure.com
.AZURE_DEPLOYMENT_NAME
là tên triển khai Azure, tương tựhttps://{AZURE_RESOURCE_NAME}.openai.azure.com/deployments/{AZURE_DEPLOYMENT_NAME}/chat/completions
.AZURE_OPENAI_TOKEN
là mã thông báo Azure OpenAI.
Docker-Compose Development
Chỉnh sửa docker-compose.yaml, cấu hình biến môi trường tương ứng qua mục environment (hoặc mount tệp cấu hình tương ứng qua volumes), sau đó chạy các lệnh sau:
# Xây dựng hình ảnh
docker compose build
# Khởi động dịch vụ
docker compose up -d
# Dừng dịch vụ
docker compose down
Địa chỉ gọi lại sự kiện: http://IP:9000/webhook/event
Địa chỉ gọi lại thẻ: http://IP:9000/webhook/card
- Lấy OpenAI KEY (🙉 Dưới đây là các key miễn phí có sẵn cho tất cả mọi người để kiểm tra triển khai)
- Tạo Bot trên lark
- Truy cập Feishu Open Platform, tạo ứng dụng và lấy APPID và Secret.
- Điều hướng đến phần "Features-Bot", tạo bot.
- Lấy địa chỉ công khai từ cpolar, serverless hoặc Railway, và điền vào phần "Event Subscription" của backend bot Lark. Ví dụ,
http://xxxx.r6.cpolar.top
là địa chỉ công khai được cpolar tiếp cận./webhook/event
là tuyến đường ứng dụng thống nhất.- Địa chỉ gọi lại cuối cùng là
http://xxxx.r6.cpolar.top/webhook/event
.
- Trong phần "Bot" của backend bot Lark, điền vào URL yêu cầu cho thẻ tin nhắn. Ví dụ,
http://xxxx.r6.cpolar.top
là địa chỉ công khai được cpolar tiếp cận./webhook/card
là tuyến đường ứng dụng thống nhất.- URL yêu cầu cuối cùng cho thẻ tin nhắn là
http://xxxx.r6.cpolar.top/webhook/card
.
- Trong phần "Event Subscription", tìm kiếm ba thuật ngữ: "Bot Join Group," "Receive Messages," và "Messages Read." Kiểm tra tất cả các quyền hạn phía sau chúng.
Điều hướng đến giao diện quản lý quyền hạn, tìm kiếm "Image," và kiểm tra "Get and upload image or file resources."
Cuối cùng, các sự kiện gọi lại sau đây sẽ được thêm vào:
- im:resource(Đọc và tải lên hình ảnh hoặc tệp khác)
- im:message
- im:message.group_at_msg(Đọc tin nhắn trong nhóm đề cập đến bot)
- im:message.group_at_msg:readonly(Lấy tin nhắn nhóm đề cập đến bot)
- im:message.p2p_msg(Đọc tin nhắn riêng được gửi đến bot)
- im:message.p2p_msg:readonly(Lấy tin nhắn riêng được gửi đến bot)
- im:message:send_as_bot(Gửi tin nhắn dưới dạng ứng dụng)
- im:chat:readonly(Lấy thông tin nhóm)
- im:chat(Lấy và cập nhật thông tin nhóm)
- Xuất bản phiên bản và chờ sự phê duyệt từ quản trị viên doanh nghiệp.
AI |
SDK | Application |
---|---|---|
🎒OpenAI | Go-OpenAI | 🏅Feishu-OpenAI, Lark-OpenAI, 🏅Feishu-EX-ChatGPT, Feishu-OpenAI-Stream-Chatbot, Feishu-OpenAI-Amazing, Feishu-Oral-Friend, Feishu-OpenAI-Base-Helper, Feishu-Vector-Knowledge-Management, Feishu-OpenAI-PDF-Helper, 🏅Dingtalk-OpenAI, Wework-OpenAI, WeWork-OpenAI-Node, llmplugin |
🎭 Stablediffusion | ------ | 🏅Feishu-Stablediffusion |
🍎 Midjourney | Go-Midjourney | 🏅Feishu-Midjourney, MidJourney-Web, Dingtalk-Midjourney |
🍍 文心一言 | Go-Wenxin | Feishu-Wenxin, Dingtalk-Wenxin, Wework-Wenxin |
💸 Minimax | Go-Minimax | Feishu-Minimax, Dingtalk-Minimax, Wework-Minimax |
⛳️ CLAUDE | Go-Claude | Feishu-Claude, DingTalk-Claude, Wework-Claude |
🎡 Prompt | Prompt-Engineering-Tutior | |
🤖️ ChatGLM | Feishu-ChatGLM |