-
Notifications
You must be signed in to change notification settings - Fork 1.6k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
这些问题不要在Issue提出,在Discussion中提出 #394
Comments
几个问题想请教一下, |
请问openai_api.py是否会更细关于处理向量的 v1/embedding的接口? |
直接合并一下别的项目的代码就行了. |
openai demo 已经更新 支持了embedded |
Discussion是说在这里的comment吗? <---像这样? |
是在 github disscussion对应的标题讨论 |
ASK:
|
你好,我在用lora微调过程中,一直卡在 |
你好,在lora微调过程中出现了RuntimeError: "addmm_impl_cpu_" not implemented for 'Half',这个问题,我提升了pytorch的版本之后,就一直卡在 |
这个错误通常发生在使用PyTorch框架进行深度学习模型训练时,特别是在尝试使用半精度浮点数(‘Half’,即16位浮点数)进行矩阵乘加操作(addmm)时。半精度浮点数是一种用于加速计算和减少内存占用的技术,但它并不支持所有的操作。 例如,将一个张量从半精度转换为全精度tensor = tensor.to(dtype=torch.float32) |
如果出現以下問題要如何解決,我是使用官方我代碼和DATASET試行 RuntimeError: element 0 of tensors does not require grad and does not have a |
您好,请问问题解决了吗,我也遇到了相同的问题 |
请问各位大佬,uvicorn实现api_server时,为什么workers大于1的时候会报错:模型未定义。难道不能实现多进程吗,该怎么解决这个问题? |
用main分支代码做finetune, 用inference_hf代码做预测在解析responce中的output时会报错?而且finetune保存的模型,无法直接用composite_demo的形式直接调用?请问如何解决这两个问题? |
请问下chat-glm3-6B的模型参数:Hidden Size、Num Layers、Num Attention Heads、Vocab Size是多少呀?没有在社区中看到有公布这个信息 |
在本地安装之后,使用streamlit和graido都可以进入界面,但是提问没有反应,这是什么情况啊 |
启动composite_demo之后提问响应极慢,看起来没有启用GPU加速,需要怎么修改启动GPU加速呢? |
第一次尝试 github 中微调示例,未执行成功,报以下错误,请问如何解决?: 「执行命令」: 「输出信息」: If you are a user of the module, the easiest solution will be to Traceback (most recent call last): File "/opt/notebook/toG_RMM/MHRED/ChatGLM3-main/finetune_demo/finetune_hf.py", line 11, in |
交互就会报错 UnicodeDecodeError: 'ascii' codec can't decode byte 0xe6 in position 0: ordinal not in range(128)root@dsw-430842-7cc9db4b4d-gl5v6:/mnt/workspace/webcodes/ChatGLM3/basic_demo# python cli_demo.py 用户: 你好 ChatGLM:2024-08-21 02:36:40.210853: I tensorflow/core/platform/cpu_feature_guard.cc:210] This TensorFlow binary is optimized to use available CPU instructions in performance-critical operations. |
完全不能启动,操作系统是基于Mobaxterm的Linux远程主机模型是从modelscope克隆的,但删除了名称含safetensors的所有文件;检查了cli_demo.py中MODEL_PATH路径无误,直接运行python3 cli_demo.py会报错如下: 是modelscope的tokenizer.model文件有问题吗?另外这个远程主机因为网络问题没法连接到huggingface,不能从hf克隆模型 |
python inference_hf.py ./output/checkpoint-3000 --prompt "listen to westbam alumb allergic on google music" |
以下问题不要在issue中提出,因为:
如果你遇到以下问题,请你在Discussion中提出具体的 bad case,这些问题在本版本模型难以解决,更多的bad case将能帮助我们优化出更好的模型。
#393 模型运行的 CUDA error: device-side assert相关问题
#212 工具调用混乱,一些场景被训练为调用工具
#335 多轮对话无法实现正常工具调用
#306 在持续进行对话时候GPU 内存占用飙升
#310 多卡推理不正常,乱码相关问题
#225 中英文混合输出,输出会带英语单词
以下问题,如果非官方代码和官方硬件上的报错,请也在Discussion中提出
#251 Mac环境下的配置和环境准备
#253 微调的各种问题
上述两大类问题请不要 在 Issue提出,否则可能会不被回复或者 直接关闭。
感谢理解
The text was updated successfully, but these errors were encountered: