-
Notifications
You must be signed in to change notification settings - Fork 3
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
谢谢大佬,这是Efficient GlobalPointer么?还是之前那版的? #3
Comments
Lines 304 to 312 in a067a08
当前的实验结果都是使用的 accelerate launch train.py \
--model_type bert \
--pretrained_model_name_or_path bert-base-chinese \
--method gplinker \
--logging_steps 200 \
--num_train_epochs 20 \
--learning_rate 3e-5 \
--num_warmup_steps_or_radios 0.1 \
--gradient_accumulation_steps 1 \
--per_device_train_batch_size 16 \
--per_device_eval_batch_size 32 \
--seed 42 \
--save_steps 10804 \
--output_dir ./outputs \
--max_length 128 \
--topk 1 \
--num_workers 6 \
--use_efficient |
万分感谢,如果我想在自己数据上跑,除了修改train_data.json、dev_data.json、test_data.json等数据文件还需要修改哪些东西,有哪些步骤。另外,除了上述,我修改了all_50_schemas. |
发现了,读的是cache的数据而不是data下的 |
第一次eval的时候时间比后面eval的时候长很多,但我还没debug出来是什么情况。好像大概和训练时长差不多长,情况如下: |
你可以查看一下解码策略,第一次 |
感谢,认真跟了一下,确实是train_loss较大的时候循环解码导致慢。因为数据量少,所以多学几个再打就不会出现这种情况。
|
您好,我也复现了该算法https://github.com/xhw205/GPLinker_torch, |
可能是损失函数的原因吧。 |
我看苏神说是这个原因,1、mask_zero没处理好;2、同一样本的label中标签出现重复(即目标类别必须是去重过的,不能重复出现,如果开启了mask_zero,那么只能label=0能重复出现,其他也不能重复出现)。 |
对于2的话,那么感觉对标签直接去重应该就可以了吧 |
GPLinker_pytorch/utils/data.py Line 108 in a067a08
这里判断一下应该就可以了,如果不在list里面就添加一下,如果在就不添加这个标签? |
感觉xhw205用的是苏神的数据与处理代码,那么应该不会出现问题2吧,那么可能是问题1吧 |
是的,我提问的。我代码复现基本按照keras版本来的,以这个CBLUE数据为例子, |
嗯,确实是这里,我太菜没有debug定位到。我确实是第二种问题,感觉逻辑上得判断下。因为我这实体1实体2定义的都是产品,所以其实不能让他们嵌套或者重叠。如果是不同实体类型,应当没有问题。待会我去写一下这里的逻辑。 |
|
No description provided.
The text was updated successfully, but these errors were encountered: