-
Notifications
You must be signed in to change notification settings - Fork 277
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
关于bottom up and top down模型的问题 #31
Comments
跟batch size有关。然后这个repo用的festure不是文章中用的feature。 |
I think you can try the pretrained features provided by the author here. |
thanks ,It achieve 1.20 Cider score on Karpathy's test split after self-critical training. |
您好,请问您方便能分享一下训练时的具体参数嘛,比如rnn的hidden unit num,还有batch size等等 |
我用的都是论文里提供的参数。batch size为100, rnn_hide_size为1000, embedding 为1000. attention hide size为512 |
你的max epoch设置的是30? 然后最后没有Cider optimization的结果Bleu_1有0.770吗? |
对的,max epoch设置的是30, 当时的结果如下,Bleu_1好像没到0.770,未经过Cider optimization的结果如下: |
好的 非常感谢 |
@JimLee4530 你好,请问一下,我用跟你一致的参数设置,即 |
我的设置你一样,并没有修改其他的。你的特征用了论文里的feature了吗? |
嗯是的,用了每个图片36个box的特征,请问你是用的10-100 adapt的还是36 fix的特征? |
我的是10~100 adapt的。 |
我试试10-100的,谢谢! |
@JimLee4530 请问您是否可以给一下cider是1.20的详细的参数设置,我按照上面所说的参数设置最后发现并没有跑到1.20,只能跑到1.12多。我觉得应该是我的学习速率设置的不对,也有可能是eval时的参数设置的有问题。 |
python train.py --id topdown --caption_model topdown --input_json data/cocotalk.json --input_fc_dir data/cocotalk_fc --input_att_dir faster_rcnn_pool5 --input_label_h5 data/cocotalk_label.h5 --batch_size 100 --learning_rate 5e-4 --learning_rate_decay_start 0 --scheduled_sampling_start 0 --checkpoint_path log_topdown --save_checkpoint_every 6000 --val_images_use 5000 --max_epochs 30 --rnn_size 1000 --input_encoding_size 1000 --att_feat_size 2048 --att_hid_size 512 这是我设置的参数,其他的都是opt文件里默认的。 接下来是 eval |
@JimLee4530 非常感谢!!! |
@JimLee4530 @yangxuntu @deepylt Can somebody share the 10-100 adapt or 30 fixed features? I download it from Chrome browser, but the speed is too slow and it often interrupts. |
I download all these features about 1-2 days, be patient... |
@yangxuntu It always interrupts and redownload, it will start from the begin...... |
I do not meet such problem... |
@yangxuntu what browser or tool you used for download? I have vpn in my computer |
I do not use any vpn. I just slowly download the features. And after one to two days, I finish downloading them. |
@ruotianluo @JimLee4530 请问有使用cider优化后的topdown模型在online(https://competitions.codalab.org/competitions/3221)上测评过吗? 但是在online上测试时得分很低 是不是在测试输出json的文件时需要使用test2014的10-100的特征? 想请问一下知道原因吗?感恩~~~ |
首先 online 上的得分确实会低的。其次是你test的命令, 有用到beam search 吗?用了beam search 会高点。 |
@JimLee4530 使用了beam search,beam_size=2,想请问一下您用原始模型在online上的得分大概是多少?方便分享一下吗?感谢 |
没有测哎,你可以参考bottom up report的结果。ruotian luo的实现应该会比原来的版本高一些的。
…________________________________
发件人: y657250418 <[email protected]>
发送时间: 2019年4月15日 16:54
收件人: ruotianluo/self-critical.pytorch
抄送: #YANG XU#; Mention
主题: Re: [ruotianluo/self-critical.pytorch] 关于bottom up and top down模型的问题 (#31)
@JimLee4530<https://github.com/JimLee4530> 使用了beam search,beam_size=2,想请问一下您用原始模型在online上的得分大概是多少?方便分享一下吗?感谢
―
You are receiving this because you were mentioned.
Reply to this email directly, view it on GitHub<#31 (comment)>, or mute the thread<https://github.com/notifications/unsubscribe-auth/AkiaOh4ghObRCjeQFUwpXbh8es4NoHaYks5vhD44gaJpZM4RmG3L>.
|
你好,
bottom up and top down的论文里说 60k iterations 训9个小时就能到达cider 120.1 的效果。
但我将你代码模型的参数修改成论文中的参数,并将attention lstm那块的输入修改成每个bounding box 的image feature的均值。但是也达不到论文里的效果。
想问问你,以你的经验来看,觉得会是什么原因呢?
The text was updated successfully, but these errors were encountered: