Git Product home page Git Product logo

Comments (42)

HanAccount avatar HanAccount commented on May 23, 2024

在数据集SUN上甚至出现了nan
没有做任何改动

我打印了数据发现对比loss出现nan
通过netG生成的fake也出现了nan
导致不能正常训练
python CE_GZSL.py --dataset SUN --nepoch 300 --lr 5e-5
参数使用的是你在issue里提供的

from ce-gzsl.

HanAccount avatar HanAccount commented on May 23, 2024

在FLO数据集上仅仅只得到H=0.676的结果,和论文里相差太大
使用的关键参数如下
epoch=300, syn_num=600, batch_size=64, nhF=1024, lr=1e-4 ins_weight=0.01, cls_weight=0.01

from ce-gzsl.

Hanzy1996 avatar Hanzy1996 commented on May 23, 2024

您好,请问您在SUN和FLO上具体的所有参数是如何设置?请先参考一下这里的参数

from ce-gzsl.

HanAccount avatar HanAccount commented on May 23, 2024

SUN数据集是这样的参数跑的
--epoch 300 --syn_num 100 --batch_size 64 --attSize 102 --embedSize 2048 --outzSize 512 --nhF 1024 --ins_weight 0.01 --cls_weight 0.01 --ins_temp 0.1 --lr 5e-5 --lr_decay_epoch 100
但是出现了nan 我打印了对比损失出现了nan 打印了由netG生成的fake也出现了nan

from ce-gzsl.

HanAccount avatar HanAccount commented on May 23, 2024

FLO数据集参数:
epoch=300 syn_num=600 batch_size=64 attSize=nz=102 embedSize=2048 outzSize=512 nhF=1024 ins_weight=0.01 cls_weight=0.01 lr=1e-4 lr_decay_epoch=100

from ce-gzsl.

HanAccount avatar HanAccount commented on May 23, 2024

使用该链接的参数#2 (comment)
在AwA上运行了130epoch只达到了68.3,并且在第3个epoc达到了最高,并没有到达论文给出的70.0
在FLO上运行了730epoch只达到了67.4,并且在第670个epoch达到了最高,这和论文的73.5相差太大了
在SUN上还是出现了nan
在CUB上使用sent达到了论文的结果

from ce-gzsl.

Hanzy1996 avatar Hanzy1996 commented on May 23, 2024

您好!可能是batch size对contrastive embedding影响较大,请参考论文中提供的batch size:
`We use a random mini-batch size of 4,096 for AWA1 and AWA2, 2,048 for CUB, 3,072 for FLO, and 1,024 for SUN in our method.'

from ce-gzsl.

HanAccount avatar HanAccount commented on May 23, 2024

能提供你训练时用的batchsize吗
SUN数据集我换了128后已经可以正常运行了
其他的数据集我都是在batchsize为64的基础上运行的

from ce-gzsl.

Hanzy1996 avatar Hanzy1996 commented on May 23, 2024

您好!请参考上条回复。

from ce-gzsl.

yangjingqi99 avatar yangjingqi99 commented on May 23, 2024

您好!请参考上条回复。

您好,我在跑SUN数据集时也遇到了NAN的情况,别的数据集上不存在这个问题,想请教您为什么SUN如此特殊呢,是模型本身的问题(比如说WGAN不稳定)还是SUN数据集有脏数据呢?

from ce-gzsl.

HanAccount avatar HanAccount commented on May 23, 2024

好的麻烦你了,我现在尝试使用论文里参数分析所给的最好参数进行实验

from ce-gzsl.

HanAccount avatar HanAccount commented on May 23, 2024

您好!请参考上条回复。

您好,我在跑SUN数据集时也遇到了NAN的情况,别的数据集上不存在这个问题,想请教您为什么SUN如此特殊呢,是模型本身的问题(比如说WGAN不稳定)还是SUN数据集有脏数据呢?

可能是batch_size太小了 我之前使用batch_size=64时出现了nan ,加大了batch_size后可以正常运行

from ce-gzsl.

yangjingqi99 avatar yangjingqi99 commented on May 23, 2024

我设置的batch_size是1024,但是也会出现NAN的问题,其他数据集不会

from ce-gzsl.

yangjingqi99 avatar yangjingqi99 commented on May 23, 2024

如果方便的话希望您SUN数据集的结果跑出来可以告诉我一下,SUN我只能复现到38.8

from ce-gzsl.

HanAccount avatar HanAccount commented on May 23, 2024

我使用batch_size=128时跑到了40.6还是没有原文高 我正在尝试使用论文里提供的最好参数batch_size=1024

请问下你在其他数据集上跑到了论文给出的结果吗

from ce-gzsl.

yangjingqi99 avatar yangjingqi99 commented on May 23, 2024

我这边是除了FLO和SUN,其他都可以跑到论文报告的结果

from ce-gzsl.

HanAccount avatar HanAccount commented on May 23, 2024

能麻烦你提供下分别使用的参数或者运行的脚本命令吗

我只有在CUB上跑到了论文的结果,其他的都没有达到

from ce-gzsl.

yangjingqi99 avatar yangjingqi99 commented on May 23, 2024

--dataset AWA1 --class_embedding att --syn_num 1800 --batch_size 4096 --attSize 85 --nz 85 --embedSize 2048 --outzSize 512 --nhF 2048 --ins_weight 0.001 --cls_weight 0.001 --ins_temp 0.1 --cls_temp 0.1 --manualSeed 9182 --nclass_all 50 --nclass_seen 40

from ce-gzsl.

yangjingqi99 avatar yangjingqi99 commented on May 23, 2024

其他找不到了,我使用的就是作者提供的参数
manualSeed:AWA1&2 (9182), FLO (806), SUN (4115)
nz=attSize (AWA1/AWA2/CUB/SUN), nz=512 (FLO)
syn_num:AWA1(1800) AWA2 (2400), FLO (600), SUN (100)
nhF: AWA1&2(2048), FLO (1024), SUN (1024)
ins_weight: AWA1&2(0.001), FLO (0.01), SUN (0.01)
cls_weight: AWA1&2(0.001), FLO (0.01), SUN (0.01)
lr: AWA1&2(1e-4), FLO (1e-4), SUN (5e-5)
lr_decay_epoch: AWA1 (50), AWA2 (10), FLO&SUN (100)
epochs: AWA1/AWA2 (about 130), CUB (about 450), FLO (about 730), and SUN (about 350).

from ce-gzsl.

yangjingqi99 avatar yangjingqi99 commented on May 23, 2024

你使用作者提供的batchsize, AWA1,AWA2,CUB都可以复现

from ce-gzsl.

HanAccount avatar HanAccount commented on May 23, 2024

--ins_temp 0.1 --cls_temp 0.1这两个参数是用论文参数分析那里提供的吗

还是所有的数据集都是用0.1和0.1

from ce-gzsl.

yangjingqi99 avatar yangjingqi99 commented on May 23, 2024

这个两个参数作者没给,所以我用的是默认的,可以问一下作者

from ce-gzsl.

HanAccount avatar HanAccount commented on May 23, 2024

我看论文中的参数分析那一节给出了最好的一组权值 我现在在对应论文中的参数分析给出的参数来跑实验

from ce-gzsl.

yangjingqi99 avatar yangjingqi99 commented on May 23, 2024

嗯嗯好的,麻烦您跑完请告诉我您FLO和SUN的结果~

from ce-gzsl.

HanAccount avatar HanAccount commented on May 23, 2024

@yangjingqi99
我在SUN数据集上只跑到了40.3
参数如下:
nepoch=350 syn_num=100 batch_size=1024 attSize=nz=102 embedSize=2048 outzSize=512 nhF=1024 ins_weight=0.01 cls_weight=0.01 ins_temp=cls_temp=0.1 lr=5e-5 le_decay_epoch=100
使用的参数都是参照论文和作者给出的 实在是跑不到论文给出的结果
@Hanzy1996 请问这是什么情况呢

from ce-gzsl.

Hanzy1996 avatar Hanzy1996 commented on May 23, 2024

十分不好意思,SUN的epoch参数有误,350是另外一篇文章里面SUN的epoch参数,请稍等我再整理一下。

from ce-gzsl.

yangjingqi99 avatar yangjingqi99 commented on May 23, 2024

十分不好意思,SUN的epoch参数有误,350是另外一篇文章里面SUN的epoch参数,请稍等我再整理一下。

非常感谢,请您再公布一下这两个ins_temp、 cls_temp参数在每个数据集上的设置

from ce-gzsl.

Hanzy1996 avatar Hanzy1996 commented on May 23, 2024

十分不好意思,SUN的epoch参数有误,350是另外一篇文章里面SUN的epoch参数,请稍等我再整理一下。

非常感谢,请您再公布一下这两个ins_temp、 cls_temp参数在每个数据集上的设置

您好!这两个参数和论文中相同。

from ce-gzsl.

HanAccount avatar HanAccount commented on May 23, 2024

我在FLO数据集上也就跑到了72.5 并没有达到论文中给出的73.5
使用的参数如下:
nepoch=730 syn_num=600 batch_size=3072 attSize=1024 nz=512 ins_weight=cls_weight=0.01 ins_temp=0.1 cls_temp=1.0 lr=1e-4 lr_decay_epoch=100
使用的是和论文中一样的参数 还是有差距
实验中有什么其他细节方面的吗
@Hanzy1996 @yangjingqi99

from ce-gzsl.

yangjingqi99 avatar yangjingqi99 commented on May 23, 2024

我在FLO数据集上也就跑到了72.5 并没有达到论文中给出的73.5 使用的参数如下: nepoch=730 syn_num=600 batch_size=3072 attSize=1024 nz=512 ins_weight=cls_weight=0.01 ins_temp=0.1 cls_temp=1.0 lr=1e-4 lr_decay_epoch=100 使用的是和论文中一样的参数 还是有差距 实验中有什么其他细节方面的吗 @Hanzy1996 @yangjingqi99

我FLO也没有复现到73.5。。

from ce-gzsl.

HanAccount avatar HanAccount commented on May 23, 2024

只有CUB数据集有这个文件 其他数据集都是att_splits.mat
@1maojian1

from ce-gzsl.

junxinlu avatar junxinlu commented on May 23, 2024

@HanAccount 我没有在作者提供的数据集下载链接中找到 Flower102 (FLO) dataset这个数据的resnet01.mat, 请问哪里可以下载?

from ce-gzsl.

HanAccount avatar HanAccount commented on May 23, 2024

@junxinlu https://datasets.d2.mpi-inf.mpg.de/xian/xlsa17.zip 试试这个呢

from ce-gzsl.

via815via avatar via815via commented on May 23, 2024

您好!可能是batch size对contrastive embedding影响较大,请参考论文中提供的batch size: `We use a random mini-batch size of 4,096 for AWA1 and AWA2, 2,048 for CUB, 3,072 for FLO, and 1,024 for SUN in our method.'

您好!可以麻烦在查看一下sun数据集的参数设置吗?所有参数设置与您说明的相同,但是无法取得与您相同的结果,相差2%左右。谢谢!

from ce-gzsl.

Hanzy1996 avatar Hanzy1996 commented on May 23, 2024

SUN needs more epoch training, about 1,000 epochs. Please refer to the updated hyper-parameters

from ce-gzsl.

Hanzy1996 avatar Hanzy1996 commented on May 23, 2024

@HanAccount 我没有在作者提供的数据集下载链接中找到 Flower102 (FLO) dataset这个数据的resnet01.mat, 请问哪里可以下载?

FLO dataset can be found in the codes of [1]

[1] Yongqin Xian and Tobias Lorenz and Bernt Schiele and Zeynep Akata. Feature Generating Networks for Zero-Shot Learning. CVPR2018

from ce-gzsl.

1maojian1 avatar 1maojian1 commented on May 23, 2024

@junxinlu https://datasets.d2.mpi-inf.mpg.de/xian/xlsa17.zip 试试这个呢

你好,请问你现在在AWA1,AWA2和FLO上可以复现了吗?可以给下参数么,我用作者给的还是有些出入

from ce-gzsl.

via815via avatar via815via commented on May 23, 2024

from ce-gzsl.

HanAccount avatar HanAccount commented on May 23, 2024

lr-0.0001_bs-4096_eS-2048_zS-512_nF-2048_decay-10_nz-85_synum-2400
Dataset:AwA2
the best GZSL seen accuracy is 0.7863795704533602
the best GZSL unseen accuracy is 0.6349407886288809
the best GZSL H is 0.7025924330637218
这是我跑AWA2的结果
@1maojian1
也就CUB和AWA2达到论文 其他的参数你可以参照#2 (comment)

其他数据集的参数后面作者有过更新 我没有继续跑过

from ce-gzsl.

1maojian1 avatar 1maojian1 commented on May 23, 2024

lr-0.0001_bs-4096_eS-2048_zS-512_nF-2048_decay-10_nz-85_synum-2400 Dataset:AwA2 the best GZSL seen accuracy is 0.7863795704533602 the best GZSL unseen accuracy is 0.6349407886288809 the best GZSL H is 0.7025924330637218 这是我跑AWA2的结果 @1maojian1 也就CUB和AWA2达到论文 其他的参数你可以参照#2 (comment)

其他数据集的参数后面作者有过更新 我没有继续跑过

在awa2数据集上我用了提供的以下参数,但是与论文结果还是相差1%左右,这是为什么呢,可以提供下你跑的所有参数吗
python CE_GZSL.py
--dataset AWA2
--class_embedding att
--syn_num 2400
--batch_size 4096
--attSize 85
--nz 85
--embedSize 2048
--outzSize 512
--nhF 2048
--ins_weight 0.001
--cls_weight 0.001
--cls_temp 0.1
--manualSeed 9182
--lr_decay_epoch 10
--nclass_all 50
--nclass_seen 40
--lr 1e-4

from ce-gzsl.

HanAccount avatar HanAccount commented on May 23, 2024

可能是这两个参数吧 你可以参考论文 里面有给出具体的数值
--cls_temp 1.0 --ins_temp 10.0

在论文4.3节
On AWA1, CUB and SUN, our method achieves the best results when τe = 0.1 and τs = 0.1. On AWA2, our method
achieves the best result when τe = 10.0 and τs = 1.0. On
FLO, our method achieves the best result when τe = 0.1
and τs = 1.0.

from ce-gzsl.

HanAccount avatar HanAccount commented on May 23, 2024

ZSL部分我没有跑过 我觉得参数是共享的吧 只要改一个gzsl为false就行了 并且论文的zsl的结果并没有那么好我就没跑过

from ce-gzsl.

Related Issues (20)

Recommend Projects

  • React photo React

    A declarative, efficient, and flexible JavaScript library for building user interfaces.

  • Vue.js photo Vue.js

    🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.

  • Typescript photo Typescript

    TypeScript is a superset of JavaScript that compiles to clean JavaScript output.

  • TensorFlow photo TensorFlow

    An Open Source Machine Learning Framework for Everyone

  • Django photo Django

    The Web framework for perfectionists with deadlines.

  • D3 photo D3

    Bring data to life with SVG, Canvas and HTML. 📊📈🎉

Recommend Topics

  • javascript

    JavaScript (JS) is a lightweight interpreted programming language with first-class functions.

  • web

    Some thing interesting about web. New door for the world.

  • server

    A server is a program made to process requests and deliver data to clients.

  • Machine learning

    Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.

  • Game

    Some thing interesting about game, make everyone happy.

Recommend Org

  • Facebook photo Facebook

    We are working to build community through open source technology. NB: members must have two-factor auth.

  • Microsoft photo Microsoft

    Open source projects and samples from Microsoft.

  • Google photo Google

    Google ❤️ Open Source for everyone.

  • D3 photo D3

    Data-Driven Documents codes.