Comments (12)
可能有脏数据
from chinese-clip.
我也遇到了这个问题,而且用官方提供的处理好的数据集也会这样,请问问题解决了吗
from chinese-clip.
from chinese-clip.
我也遇到了类似的问题,有解决方法麻烦踢我一下~
from chinese-clip.
我把accum_freq这个参数设置为1之后就莫名其妙好了,也可能和batch size有关,我把单卡batch size设置成了200
from chinese-clip.
我把accum_freq这个参数设置为1之后就莫名其妙好了,也可能和batch size有关,我把单卡batch size设置成了200
请问你有用自己的数据集吗,我这边遇到的问题是使用自己的数据集,loss一直不收敛,和题主的还不太一样,不知道是不是我标签什么的做错了
from chinese-clip.
我把accum_freq这个参数设置为1之后就莫名其妙好了,也可能和batch size有关,我把单卡batch size设置成了200
请问你有用自己的数据集吗,我这边遇到的问题是使用自己的数据集,loss一直不收敛,和题主的还不太一样,不知道是不是我标签什么的做错了
我用的是自己的数据,当时的情况是开始几个batch的loss正常,精度有七十多,后面loss就变为了non,精度变成三十多。
我之前怀疑是梯度爆炸,然后去代码里面加上了梯度裁剪,但是还是没什么用。
后面把学习率设置为0,发现还是会出现这样的情况
所以我怀疑这和硬件有关,我把单卡batch size设置成210 的时候,loss有时候正常有时候为non,它们交替出现,我单卡显存是32g
from chinese-clip.
我把accum_freq这个参数设置为1之后就莫名其妙好了,也可能和batch size有关,我把单卡batch size设置成了200
请问你有用自己的数据集吗,我这边遇到的问题是使用自己的数据集,loss一直不收敛,和题主的还不太一样,不知道是不是我标签什么的做错了
我用的是自己的数据,当时的情况是开始几个batch的loss正常,精度有七十多,后面loss就变为了non,精度变成三十多。 我之前怀疑是梯度爆炸,然后去代码里面加上了梯度裁剪,但是还是没什么用。 后面把学习率设置为0,发现还是会出现这样的情况 所以我怀疑这和硬件有关,我把单卡batch size设置成210 的时候,loss有时候正常有时候为non,它们交替出现,我单卡显存是32g
我是用2*v100,单卡显存32g, 单卡batch size设置了128,我自己的数据集,其实只有三种文本标签,只不过我对应了不同的文本id,大概类似于这样:
{text_id:0, text:"标签A", image_id[0]}
{text_id:1, text:"标签B", image_id[1]}
{text_id:2, text:"标签A", image_id[2]}
{text_id:3, text:"标签A", image_id[3]}
{text_id:4, text:"标签C", image_id[4]}
向请教你一下,这样做数据对不对,我的loss就一直5.5x不变,acc就0.x,不知道是哪里出了问题,用MUGE训练正常的,但是MUGE的验证集acc也是一直30.x
from chinese-clip.
我把accum_freq这个参数设置为1之后就莫名其妙好了,也可能和batch size有关,我把单卡batch size设置成了200
请问你有用自己的数据集吗,我这边遇到的问题是使用自己的数据集,loss一直不收敛,和题主的还不太一样,不知道是不是我标签什么的做错了
我用的是自己的数据,当时的情况是开始几个batch的loss正常,精度有七十多,后面loss就变为了non,精度变成三十多。 我之前怀疑是梯度爆炸,然后去代码里面加上了梯度裁剪,但是还是没什么用。 后面把学习率设置为0,发现还是会出现这样的情况 所以我怀疑这和硬件有关,我把单卡batch size设置成210 的时候,loss有时候正常有时候为non,它们交替出现,我单卡显存是32g
我是用2*v100,单卡显存32g, 单卡batch size设置了128,我自己的数据集,其实只有三种文本标签,只不过我对应了不同的文本id,大概类似于这样: {text_id:0, text:"标签A", image_id[0]} {text_id:1, text:"标签B", image_id[1]} {text_id:2, text:"标签A", image_id[2]} {text_id:3, text:"标签A", image_id[3]} {text_id:4, text:"标签C", image_id[4]} 向请教你一下,这样做数据对不对,我的loss就一直5.5x不变,acc就0.x,不知道是哪里出了问题,用MUGE训练正常的,但是MUGE的验证集acc也是一直30.x
应该没问题吧,可能是因为他这个模型已经训练的很好了,我后面的训练在验证集上的loss下降不多,不过一直训练下去在训练集上的loss倒是能下降到很低。
也可以试试给标签加个模版,我看到有些预训练模型在做分类任务的微调的时候会加个模版,因为标签字数太少,也不便于提取文本特征,比如猫狗分类任务的模版可以是:“图片中的动物是<标签>”。要根据你的具体分类任务设计一个模版,让它更好的提取文本特征,在猫狗分类任务中提示模版里面的“动物”这个词是有用,但我这个不太熟,可能说错。
from chinese-clip.
我把accum_freq这个参数设置为1之后就莫名其妙好了,也可能和batch size有关,我把单卡batch size设置成了200
请问你有用自己的数据集吗,我这边遇到的问题是使用自己的数据集,loss一直不收敛,和题主的还不太一样,不知道是不是我标签什么的做错了
我用的是自己的数据,当时的情况是开始几个batch的loss正常,精度有七十多,后面loss就变为了non,精度变成三十多。 我之前怀疑是梯度爆炸,然后去代码里面加上了梯度裁剪,但是还是没什么用。 后面把学习率设置为0,发现还是会出现这样的情况 所以我怀疑这和硬件有关,我把单卡batch size设置成210 的时候,loss有时候正常有时候为non,它们交替出现,我单卡显存是32g
我是用2*v100,单卡显存32g, 单卡batch size设置了128,我自己的数据集,其实只有三种文本标签,只不过我对应了不同的文本id,大概类似于这样: {text_id:0, text:"标签A", image_id[0]} {text_id:1, text:"标签B", image_id[1]} {text_id:2, text:"标签A", image_id[2]} {text_id:3, text:"标签A", image_id[3]} {text_id:4, text:"标签C", image_id[4]} 向请教你一下,这样做数据对不对,我的loss就一直5.5x不变,acc就0.x,不知道是哪里出了问题,用MUGE训练正常的,但是MUGE的验证集acc也是一直30.x
应该没问题吧,可能是因为他这个模型已经训练的很好了,我后面的训练在验证集上的loss下降不多,不过一直训练下去在训练集上的loss倒是能下降到很低。 也可以试试给标签加个模版,我看到有些预训练模型在做分类任务的微调的时候会加个模版,因为标签字数太少,也不便于提取文本特征,比如猫狗分类任务的模版可以是:“图片中的动物是<标签>”。要根据你的具体分类任务设计一个模版,让它更好的提取文本特征,在猫狗分类任务中提示模版里面的“动物”这个词是有用,但我这个不太熟,可能说错。
模板也已经加了,但是不管我怎么调整数据,结果都是一样,请问你的id是从0开始的吗,这个有没有影响啊?id是不是得从他们训练的id接着来
from chinese-clip.
我把accum_freq这个参数设置为1之后就莫名其妙好了,也可能和batch size有关,我把单卡batch size设置成了200
请问你有用自己的数据集吗,我这边遇到的问题是使用自己的数据集,loss一直不收敛,和题主的还不太一样,不知道是不是我标签什么的做错了
我用的是自己的数据,当时的情况是开始几个batch的loss正常,精度有七十多,后面loss就变为了non,精度变成三十多。 我之前怀疑是梯度爆炸,然后去代码里面加上了梯度裁剪,但是还是没什么用。 后面把学习率设置为0,发现还是会出现这样的情况 所以我怀疑这和硬件有关,我把单卡batch size设置成210 的时候,loss有时候正常有时候为non,它们交替出现,我单卡显存是32g
我是用2*v100,单卡显存32g, 单卡batch size设置了128,我自己的数据集,其实只有三种文本标签,只不过我对应了不同的文本id,大概类似于这样: {text_id:0, text:"标签A", image_id[0]} {text_id:1, text:"标签B", image_id[1]} {text_id:2, text:"标签A", image_id[2]} {text_id:3, text:"标签A", image_id[3]} {text_id:4, text:"标签C", image_id[4]} 向请教你一下,这样做数据对不对,我的loss就一直5.5x不变,acc就0.x,不知道是哪里出了问题,用MUGE训练正常的,但是MUGE的验证集acc也是一直30.x
应该没问题吧,可能是因为他这个模型已经训练的很好了,我后面的训练在验证集上的loss下降不多,不过一直训练下去在训练集上的loss倒是能下降到很低。 也可以试试给标签加个模版,我看到有些预训练模型在做分类任务的微调的时候会加个模版,因为标签字数太少,也不便于提取文本特征,比如猫狗分类任务的模版可以是:“图片中的动物是<标签>”。要根据你的具体分类任务设计一个模版,让它更好的提取文本特征,在猫狗分类任务中提示模版里面的“动物”这个词是有用,但我这个不太熟,可能说错。
模板也已经加了,但是不管我怎么调整数据,结果都是一样,请问你的id是从0开始的吗,这个有没有影响啊?id是不是得从他们训练的id接着来
ID应该没影响吧
from chinese-clip.
我把accum_freq这个参数设置为1之后就莫名其妙好了,也可能和batch size有关,我把单卡batch size设置成了200
请问你有用自己的数据集吗,我这边遇到的问题是使用自己的数据集,loss一直不收敛,和题主的还不太一样,不知道是不是我标签什么的做错了
我用的是自己的数据,当时的情况是开始几个batch的loss正常,精度有七十多,后面loss就变为了non,精度变成三十多。 我之前怀疑是梯度爆炸,然后去代码里面加上了梯度裁剪,但是还是没什么用。 后面把学习率设置为0,发现还是会出现这样的情况 所以我怀疑这和硬件有关,我把单卡batch size设置成210 的时候,loss有时候正常有时候为non,它们交替出现,我单卡显存是32g
我是用2*v100,单卡显存32g, 单卡batch size设置了128,我自己的数据集,其实只有三种文本标签,只不过我对应了不同的文本id,大概类似于这样: {text_id:0, text:"标签A", image_id[0]} {text_id:1, text:"标签B", image_id[1]} {text_id:2, text:"标签A", image_id[2]} {text_id:3, text:"标签A", image_id[3]} {text_id:4, text:"标签C", image_id[4]} 向请教你一下,这样做数据对不对,我的loss就一直5.5x不变,acc就0.x,不知道是哪里出了问题,用MUGE训练正常的,但是MUGE的验证集acc也是一直30.x
应该没问题吧,可能是因为他这个模型已经训练的很好了,我后面的训练在验证集上的loss下降不多,不过一直训练下去在训练集上的loss倒是能下降到很低。 也可以试试给标签加个模版,我看到有些预训练模型在做分类任务的微调的时候会加个模版,因为标签字数太少,也不便于提取文本特征,比如猫狗分类任务的模版可以是:“图片中的动物是<标签>”。要根据你的具体分类任务设计一个模版,让它更好的提取文本特征,在猫狗分类任务中提示模版里面的“动物”这个词是有用,但我这个不太熟,可能说错。
模板也已经加了,但是不管我怎么调整数据,结果都是一样,请问你的id是从0开始的吗,这个有没有影响啊?id是不是得从他们训练的id接着来
ID应该没影响吧
好吧,我已经想不到从哪里找问题了哈哈哈,还是谢谢你啦
from chinese-clip.
Related Issues (20)
- finetune时报错,且Traceback疑似被截断,无法定位出错线程 HOT 3
- 微调clip_cn_vit-l-14-336 报错 HOT 2
- 请问在线demo中的文搜图或图搜图应用,对返回结果的逻辑处理是怎么样的呢?我设置了返回50张,但是有的文本只返回了32张。请问你们是对结果进行了阈值过滤吗,阈值设置的多少呢?用于检索的数据有哪些呢?
- Delete
- 执行finetune流程时报错 HOT 1
- 请问demo用的base模型跟本项目给的CN-CLIP(ViT-B/16)是同一个模型吗?跟我本地的测试结果不太一样
- 请问怎么调用这个模型?怎么提供api服务?
- 文搜图的原理
- fb16速度比fb32要慢
- 请问分词器有没有c++版本的实现? HOT 1
- 请问训练脚本会在当验证集上性能下降时停止训练吗,还是说只是会汇报下验证集上的性能但训练继续 HOT 1
- load_from_name 加入 flash-attn 支持 HOT 4
- 转换模型格式时的config.json文件是要自己提供吗
- 这个可以在华为的服务器部署吗? HOT 1
- 执行bash run_scripts/muge_finetune_vit-b-16_rbt-base.sh /home/liujiawei/datapath报错 HOT 3
- 请问有开源Chinese-Clip-Vit-G的计划么
- 请问在实现image caption上有什么建议吗
- fine tune报线程错误 求指导 HOT 3
- 1
- 模型finetune这部操作应该使用什么软件?请各位大佬回复
Recommend Projects
-
React
A declarative, efficient, and flexible JavaScript library for building user interfaces.
-
Vue.js
🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.
-
Typescript
TypeScript is a superset of JavaScript that compiles to clean JavaScript output.
-
TensorFlow
An Open Source Machine Learning Framework for Everyone
-
Django
The Web framework for perfectionists with deadlines.
-
Laravel
A PHP framework for web artisans
-
D3
Bring data to life with SVG, Canvas and HTML. 📊📈🎉
-
Recommend Topics
-
javascript
JavaScript (JS) is a lightweight interpreted programming language with first-class functions.
-
web
Some thing interesting about web. New door for the world.
-
server
A server is a program made to process requests and deliver data to clients.
-
Machine learning
Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.
-
Visualization
Some thing interesting about visualization, use data art
-
Game
Some thing interesting about game, make everyone happy.
Recommend Org
-
Facebook
We are working to build community through open source technology. NB: members must have two-factor auth.
-
Microsoft
Open source projects and samples from Microsoft.
-
Google
Google ❤️ Open Source for everyone.
-
Alibaba
Alibaba Open Source for everyone
-
D3
Data-Driven Documents codes.
-
Tencent
China tencent open source team.
from chinese-clip.