Comments (42)
在数据集SUN上甚至出现了nan
没有做任何改动
我打印了数据发现对比loss出现nan
通过netG生成的fake也出现了nan
导致不能正常训练
python CE_GZSL.py --dataset SUN --nepoch 300 --lr 5e-5
参数使用的是你在issue里提供的
from ce-gzsl.
在FLO数据集上仅仅只得到H=0.676的结果,和论文里相差太大
使用的关键参数如下
epoch=300, syn_num=600, batch_size=64, nhF=1024, lr=1e-4 ins_weight=0.01, cls_weight=0.01
from ce-gzsl.
您好,请问您在SUN和FLO上具体的所有参数是如何设置?请先参考一下这里的参数
from ce-gzsl.
SUN数据集是这样的参数跑的
--epoch 300 --syn_num 100 --batch_size 64 --attSize 102 --embedSize 2048 --outzSize 512 --nhF 1024 --ins_weight 0.01 --cls_weight 0.01 --ins_temp 0.1 --lr 5e-5 --lr_decay_epoch 100
但是出现了nan 我打印了对比损失出现了nan 打印了由netG生成的fake也出现了nan
from ce-gzsl.
FLO数据集参数:
epoch=300 syn_num=600 batch_size=64 attSize=nz=102 embedSize=2048 outzSize=512 nhF=1024 ins_weight=0.01 cls_weight=0.01 lr=1e-4 lr_decay_epoch=100
from ce-gzsl.
使用该链接的参数#2 (comment)
在AwA上运行了130epoch只达到了68.3,并且在第3个epoc达到了最高,并没有到达论文给出的70.0
在FLO上运行了730epoch只达到了67.4,并且在第670个epoch达到了最高,这和论文的73.5相差太大了
在SUN上还是出现了nan
在CUB上使用sent达到了论文的结果
from ce-gzsl.
您好!可能是batch size对contrastive embedding影响较大,请参考论文中提供的batch size:
`We use a random mini-batch size of 4,096 for AWA1 and AWA2, 2,048 for CUB, 3,072 for FLO, and 1,024 for SUN in our method.'
from ce-gzsl.
能提供你训练时用的batchsize吗
SUN数据集我换了128后已经可以正常运行了
其他的数据集我都是在batchsize为64的基础上运行的
from ce-gzsl.
您好!请参考上条回复。
from ce-gzsl.
您好!请参考上条回复。
您好,我在跑SUN数据集时也遇到了NAN的情况,别的数据集上不存在这个问题,想请教您为什么SUN如此特殊呢,是模型本身的问题(比如说WGAN不稳定)还是SUN数据集有脏数据呢?
from ce-gzsl.
好的麻烦你了,我现在尝试使用论文里参数分析所给的最好参数进行实验
from ce-gzsl.
您好!请参考上条回复。
您好,我在跑SUN数据集时也遇到了NAN的情况,别的数据集上不存在这个问题,想请教您为什么SUN如此特殊呢,是模型本身的问题(比如说WGAN不稳定)还是SUN数据集有脏数据呢?
可能是batch_size太小了 我之前使用batch_size=64时出现了nan ,加大了batch_size后可以正常运行
from ce-gzsl.
我设置的batch_size是1024,但是也会出现NAN的问题,其他数据集不会
from ce-gzsl.
如果方便的话希望您SUN数据集的结果跑出来可以告诉我一下,SUN我只能复现到38.8
from ce-gzsl.
我使用batch_size=128时跑到了40.6还是没有原文高 我正在尝试使用论文里提供的最好参数batch_size=1024
请问下你在其他数据集上跑到了论文给出的结果吗
from ce-gzsl.
我这边是除了FLO和SUN,其他都可以跑到论文报告的结果
from ce-gzsl.
能麻烦你提供下分别使用的参数或者运行的脚本命令吗
我只有在CUB上跑到了论文的结果,其他的都没有达到
from ce-gzsl.
--dataset AWA1 --class_embedding att --syn_num 1800 --batch_size 4096 --attSize 85 --nz 85 --embedSize 2048 --outzSize 512 --nhF 2048 --ins_weight 0.001 --cls_weight 0.001 --ins_temp 0.1 --cls_temp 0.1 --manualSeed 9182 --nclass_all 50 --nclass_seen 40
from ce-gzsl.
其他找不到了,我使用的就是作者提供的参数
manualSeed:AWA1&2 (9182), FLO (806), SUN (4115)
nz=attSize (AWA1/AWA2/CUB/SUN), nz=512 (FLO)
syn_num:AWA1(1800) AWA2 (2400), FLO (600), SUN (100)
nhF: AWA1&2(2048), FLO (1024), SUN (1024)
ins_weight: AWA1&2(0.001), FLO (0.01), SUN (0.01)
cls_weight: AWA1&2(0.001), FLO (0.01), SUN (0.01)
lr: AWA1&2(1e-4), FLO (1e-4), SUN (5e-5)
lr_decay_epoch: AWA1 (50), AWA2 (10), FLO&SUN (100)
epochs: AWA1/AWA2 (about 130), CUB (about 450), FLO (about 730), and SUN (about 350).
from ce-gzsl.
你使用作者提供的batchsize, AWA1,AWA2,CUB都可以复现
from ce-gzsl.
--ins_temp 0.1 --cls_temp 0.1这两个参数是用论文参数分析那里提供的吗
还是所有的数据集都是用0.1和0.1
from ce-gzsl.
这个两个参数作者没给,所以我用的是默认的,可以问一下作者
from ce-gzsl.
我看论文中的参数分析那一节给出了最好的一组权值 我现在在对应论文中的参数分析给出的参数来跑实验
from ce-gzsl.
嗯嗯好的,麻烦您跑完请告诉我您FLO和SUN的结果~
from ce-gzsl.
@yangjingqi99
我在SUN数据集上只跑到了40.3
参数如下:
nepoch=350 syn_num=100 batch_size=1024 attSize=nz=102 embedSize=2048 outzSize=512 nhF=1024 ins_weight=0.01 cls_weight=0.01 ins_temp=cls_temp=0.1 lr=5e-5 le_decay_epoch=100
使用的参数都是参照论文和作者给出的 实在是跑不到论文给出的结果
@Hanzy1996 请问这是什么情况呢
from ce-gzsl.
十分不好意思,SUN的epoch参数有误,350是另外一篇文章里面SUN的epoch参数,请稍等我再整理一下。
from ce-gzsl.
十分不好意思,SUN的epoch参数有误,350是另外一篇文章里面SUN的epoch参数,请稍等我再整理一下。
非常感谢,请您再公布一下这两个ins_temp、 cls_temp参数在每个数据集上的设置
from ce-gzsl.
十分不好意思,SUN的epoch参数有误,350是另外一篇文章里面SUN的epoch参数,请稍等我再整理一下。
非常感谢,请您再公布一下这两个ins_temp、 cls_temp参数在每个数据集上的设置
您好!这两个参数和论文中相同。
from ce-gzsl.
我在FLO数据集上也就跑到了72.5 并没有达到论文中给出的73.5
使用的参数如下:
nepoch=730 syn_num=600 batch_size=3072 attSize=1024 nz=512 ins_weight=cls_weight=0.01 ins_temp=0.1 cls_temp=1.0 lr=1e-4 lr_decay_epoch=100
使用的是和论文中一样的参数 还是有差距
实验中有什么其他细节方面的吗
@Hanzy1996 @yangjingqi99
from ce-gzsl.
我在FLO数据集上也就跑到了72.5 并没有达到论文中给出的73.5 使用的参数如下:
nepoch=730 syn_num=600 batch_size=3072 attSize=1024 nz=512 ins_weight=cls_weight=0.01 ins_temp=0.1 cls_temp=1.0 lr=1e-4 lr_decay_epoch=100
使用的是和论文中一样的参数 还是有差距 实验中有什么其他细节方面的吗 @Hanzy1996 @yangjingqi99
我FLO也没有复现到73.5。。
from ce-gzsl.
只有CUB数据集有这个文件 其他数据集都是att_splits.mat
@1maojian1
from ce-gzsl.
@HanAccount 我没有在作者提供的数据集下载链接中找到 Flower102 (FLO) dataset这个数据的resnet01.mat, 请问哪里可以下载?
from ce-gzsl.
@junxinlu https://datasets.d2.mpi-inf.mpg.de/xian/xlsa17.zip 试试这个呢
from ce-gzsl.
您好!可能是batch size对contrastive embedding影响较大,请参考论文中提供的batch size: `We use a random mini-batch size of 4,096 for AWA1 and AWA2, 2,048 for CUB, 3,072 for FLO, and 1,024 for SUN in our method.'
您好!可以麻烦在查看一下sun数据集的参数设置吗?所有参数设置与您说明的相同,但是无法取得与您相同的结果,相差2%左右。谢谢!
from ce-gzsl.
SUN needs more epoch training, about 1,000 epochs. Please refer to the updated hyper-parameters
from ce-gzsl.
@HanAccount 我没有在作者提供的数据集下载链接中找到 Flower102 (FLO) dataset这个数据的resnet01.mat, 请问哪里可以下载?
FLO dataset can be found in the codes of [1]
[1] Yongqin Xian and Tobias Lorenz and Bernt Schiele and Zeynep Akata. Feature Generating Networks for Zero-Shot Learning. CVPR2018
from ce-gzsl.
@junxinlu https://datasets.d2.mpi-inf.mpg.de/xian/xlsa17.zip 试试这个呢
你好,请问你现在在AWA1,AWA2和FLO上可以复现了吗?可以给下参数么,我用作者给的还是有些出入
from ce-gzsl.
from ce-gzsl.
lr-0.0001_bs-4096_eS-2048_zS-512_nF-2048_decay-10_nz-85_synum-2400
Dataset:AwA2
the best GZSL seen accuracy is 0.7863795704533602
the best GZSL unseen accuracy is 0.6349407886288809
the best GZSL H is 0.7025924330637218
这是我跑AWA2的结果
@1maojian1
也就CUB和AWA2达到论文 其他的参数你可以参照#2 (comment)
其他数据集的参数后面作者有过更新 我没有继续跑过
from ce-gzsl.
lr-0.0001_bs-4096_eS-2048_zS-512_nF-2048_decay-10_nz-85_synum-2400 Dataset:AwA2 the best GZSL seen accuracy is 0.7863795704533602 the best GZSL unseen accuracy is 0.6349407886288809 the best GZSL H is 0.7025924330637218 这是我跑AWA2的结果 @1maojian1 也就CUB和AWA2达到论文 其他的参数你可以参照#2 (comment)
其他数据集的参数后面作者有过更新 我没有继续跑过
在awa2数据集上我用了提供的以下参数,但是与论文结果还是相差1%左右,这是为什么呢,可以提供下你跑的所有参数吗
python CE_GZSL.py
--dataset AWA2
--class_embedding att
--syn_num 2400
--batch_size 4096
--attSize 85
--nz 85
--embedSize 2048
--outzSize 512
--nhF 2048
--ins_weight 0.001
--cls_weight 0.001
--cls_temp 0.1
--manualSeed 9182
--lr_decay_epoch 10
--nclass_all 50
--nclass_seen 40
--lr 1e-4
from ce-gzsl.
可能是这两个参数吧 你可以参考论文 里面有给出具体的数值
--cls_temp 1.0 --ins_temp 10.0
在论文4.3节
On AWA1, CUB and SUN, our method achieves the best results when τe = 0.1 and τs = 0.1. On AWA2, our method
achieves the best result when τe = 10.0 and τs = 1.0. On
FLO, our method achieves the best result when τe = 0.1
and τs = 1.0.
from ce-gzsl.
ZSL部分我没有跑过 我觉得参数是共享的吧 只要改一个gzsl为false就行了 并且论文的zsl的结果并没有那么好我就没跑过
from ce-gzsl.
Related Issues (20)
- Runtime of the method? HOT 2
- Can you provide the best parameters for each dataset? HOT 20
- Attribute of unseen classes are not used in the training stage.
- Could you provide the result on CUB dataset when using the att attribute? HOT 6
- Keras implementation HOT 5
- GPU需求和训练时间 HOT 2
- Flower dataset HOT 2
- Question about CUB dataset
- Could you provide the results using attributes on all datasets (CUB, AWA1, AWA2, SUN and FLO)?
- 请问实验设置为什么是without finetuning? HOT 1
- correction suggestion in CE_GZSL.py HOT 1
- datasets HOT 1
- Could you provide the result on CUB dataset when using the att attribute?
- About sent_splits.mat HOT 3
- hyper-parameter HOT 1
- SUN数据集训练不稳定 HOT 1
- Can you provide the Flower102 (FLO) dataset? HOT 1
- SUN's H HOT 2
- Problems to reproduce the experiment
Recommend Projects
-
React
A declarative, efficient, and flexible JavaScript library for building user interfaces.
-
Vue.js
🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.
-
Typescript
TypeScript is a superset of JavaScript that compiles to clean JavaScript output.
-
TensorFlow
An Open Source Machine Learning Framework for Everyone
-
Django
The Web framework for perfectionists with deadlines.
-
Laravel
A PHP framework for web artisans
-
D3
Bring data to life with SVG, Canvas and HTML. 📊📈🎉
-
Recommend Topics
-
javascript
JavaScript (JS) is a lightweight interpreted programming language with first-class functions.
-
web
Some thing interesting about web. New door for the world.
-
server
A server is a program made to process requests and deliver data to clients.
-
Machine learning
Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.
-
Visualization
Some thing interesting about visualization, use data art
-
Game
Some thing interesting about game, make everyone happy.
Recommend Org
-
Facebook
We are working to build community through open source technology. NB: members must have two-factor auth.
-
Microsoft
Open source projects and samples from Microsoft.
-
Google
Google ❤️ Open Source for everyone.
-
Alibaba
Alibaba Open Source for everyone
-
D3
Data-Driven Documents codes.
-
Tencent
China tencent open source team.
from ce-gzsl.