-
Notifications
You must be signed in to change notification settings - Fork 10
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
some questions about the article #25
Comments
你好,谢谢你对论文的关注和仔细研究。
|
非常感谢您的回复,我还有两个问题: 1.针对文中的unknown object synthesis,如果伪目标是放大,那么可能导致目标点云和背景或者其他目标的点云出现了部分重合,就有点不符合真实情况了。请问这一点是怎么处理的? |
|
非常感谢你的耐心回复,祝你学习工作生活愉快!! |
您好,我之前在这个issue里问了关于您另一篇文章Open-set 3D Object Detection的一个问题,针对这个文章我目前有一点疑问:请问你们在做开集3d目标检测实验的时候训练数据中的未知类目标点云是怎么处理的?是直接将包含未知类目标点云的一帧数据去掉;还是说如果某一帧中包含未知类目标点云则仅将这一部分点云去掉,这一帧数据仍用于训练;还是说只是把未知类标注给去掉了,未知类目标的点云仍然包含在了训练数据中? |
您好。很棒的工作,我有一些问题想请教:
1.在开集分割的消融实验部分做了一个只用了Predictive Distribution Calibration但不用Unknown Object Synthesis的实验,并且结果还优于MC-dropout等。我其实不是很理解在这种实验设定下模型检测未知类的能力是从何而来?因为是分割任务,如果不用Unknown Object Synthesis的话训练数据中就完全没有所谓的未知类(因为我的理解是分割需要逐点标注,未知类无法做标注),这样的话仅靠Predictive Distribution Calibration让已知类(旧类)在对应类别的预测分数最高、未知类的预测得分第二高是怎么让模型获得检测未知类的能力的呢?另外还有一个参数我认为很关键是公式(10)中的λth,这个参数是怎么设置的?我看好像也没有什么实验?
2.在增量实验部分,我十分不理解为什么文中的方法经过增量学习的阶段后结果竟然能比upper bound好,特别是旧类的结果竟然优于upper bound?我还没有在增量学习中看到过这样的结果(可能是因为我阅读的文章还太少)。能不能解释一下?另外我理解的您文中增量部分的做法其实和LwF很类似,都是利用旧模型先对新数据打伪标签,不知道为什么二者的实验结果差距这么大?
3.我读完文章后的理解是:假如某一帧的数据同时包含old class和novel class,您在训练最初的闭集分类器的时候其实用到这一帧数据了,只是相当于把这一帧数据中的novel class的点云给删除了(否则无法训练,因为没有标注)。在增量更新过程中,这一帧的数据同样也用到了,只是只包含了novel class的点云标注,old class的点云标注给去掉了。如果我没有理解错的话,这样的实验设定个人感觉会不会有些奇怪?在现实应用中什么情况下会导致旧数据标注不可见,但是旧数据依然可见?如果能设置为假设一帧数据包含了novel class的点云,那么他就不会在训练初始分类器的时候用到,只在增量过程中用到那是不是会更合理(至少增量过程用到的数据在训练初始分类器的时候没有被用到)?
因为我是初学者,如果有什么理解不到位的地方还请您指出,谢谢!
If you can't understand Chinese,pls reply and I'll convert this into English.
The text was updated successfully, but these errors were encountered: