将ChatGLM以SSE模式代理到本地
截至2025-01-25,此方法已经是完全不必要的,因为这个插件对更多的API做了支持,现在可以直接添加Zhipu的API了
将ChatGLM以SSE模式代理到本地
截至2025-11-22,此问题已被修复,详见#357
事情的起因是Zotero
的插件Awesome GPT
只支持/v1/chat/completions
路径访问,而ChatGLM
的API
是https://open.bigmodel.cn/api/paas/v4/
,因此只能出此下策,将端口代理到本地,然后通过localhost
访问,代码如下:
'''
Author: zhao-leo 18055219130@163.com
Date: 2024-10-09 18:17:52
LastEditTime: 2024-10-09 20:13:55
'''
import requests
from flask import Flask, request, Response
import argparse
import os
import socket
# 创建一个命令行参数解析器 解析一个端口参数
argparser = argparse.ArgumentParser(description='ChatGLM Proxy')
argparser.add_argument('--port', type=int, default=None, help='Proxy server port')
# 查找一个开放的端口
def find_open_port():
with socket.socket(socket.AF_INET, socket.SOCK_STREAM) as s:
s.bind(('', 0))
return s.getsockname()[1]
# 从环境变量中读取端口,如果未设置则随机选择一个开放的端口
PORT = int(os.getenv('CHATGLM_PROXY_PORT', find_open_port()))
app = Flask(__name__)
TARGET_URL = "https://open.bigmodel.cn/api/paas/v4/chat/completions" # 替换为你的目标 URL
@app.route('/v1/chat/completions', methods=['POST'])
def proxy_request():
# 从请求头中获取 Authorization
auth_header = request.headers.get('Authorization')
# 从请求体中获取 JSON 数据
json_data = request.get_json()
# 构造代理请求
headers = {
'Authorization': auth_header,
'Content-Type': 'application/json'
}
# 发送请求到目标 URL
response = requests.post(TARGET_URL, headers=headers, json=json_data, stream=True)
# 定义一个生成器,逐块返回响应内容
def generate():
for chunk in response.iter_content(chunk_size=1024):
if chunk:
yield chunk
# 返回响应,设置为 SSE 格式
return Response(generate(), content_type='text/event-stream')
# 优先级 1: 命令行参数 2: 环境变量 3: 默认端口
args = argparser.parse_args()
port = args.port if args.port else PORT
# 启动服务器
app.run(port=port)
最后修改于 2024-10-08