Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

程序跑起来后在浏览器检测时显示Error的问题 #111

Open
Yukino821 opened this issue Nov 7, 2024 · 4 comments
Open

程序跑起来后在浏览器检测时显示Error的问题 #111

Yukino821 opened this issue Nov 7, 2024 · 4 comments

Comments

@Yukino821
Copy link

新手求教。由于我在meta的hugging face页面上没有找到 llama1,只找到了2和3的,便用了 Llama-2-7b-hf 模型,并对应使用了 vicuna-7b-v1.5。imagebind和panda部分的ckpt使用的还是文档中对应的链接。AnomalyGPT的权重用的是 AnomalyGPT/train_supervised
程序跑起来了,但是在本地网页上进行检测时一直显示Error,如图所示,也没有输出日志。
Screenshot from 2024-10-29 15-25-05

想问问这是什么原因,是因为模型的版本问题吗。是否有人出现过相同的问题,如果有解决的请教一下解决方法。
另外,如果有人成功运行并实现检测功能,也希望能分享一下你所使用的各个模型的版本 Orz

@tizzce
Copy link

tizzce commented Nov 14, 2024

我遇到了一样的问题,想问下你后来解决了没有呢?

@Yukino821
Copy link
Author

我遇到了一样的问题,想问下你后来解决了没有呢?

暂时还没有,不知道怎么解决,搁置中。。。

@xjoj58822104
Copy link

xjoj58822104 commented Nov 22, 2024

我直接用了合并好的vicuna-7b-v1.1 用的llama1 跑起来了 没有报错 可以用 但是我看作者说 Vicuna 要 v0 版本 “请确认一下我们使用的 Vicuna 应该是 v0 版本的,v1 版本的 Vicuna 修改了数据格式,可能会有问题。”

@tizzce
Copy link

tizzce commented Nov 22, 2024 via email

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

3 participants