Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

请问下作者,你训练carvana数据效果如何 #4

Open
JavisPeng opened this issue Feb 23, 2021 · 5 comments
Open

请问下作者,你训练carvana数据效果如何 #4

JavisPeng opened this issue Feb 23, 2021 · 5 comments

Comments

@JavisPeng
Copy link

我做了如下粗略的对比试验:
carvana数据集:train_size=4070 val_size=1018
输入:256x256的单通道图,
输出:二值化矩阵
对比策略:无预训练权重训练8个epoch,记录最佳dice

SETR_best_dice:0.94867
Unet_best_dice:0.98734
@920232796
Copy link
Owner

我的example的话,dice能到0.98呀。不过你结果不是很好,也正常,因为这个模型,参数量太大了,8个epoch根本学的不好,一般得需要预训练参数。在imageNet 21K进行预训练。

@askerlee
Copy link

@920232796 可否分享下pretrained model呢?多谢!

@675492062
Copy link

我的example的话,dice能到0.98呀。不过你结果不是很好,也正常,因为这个模型,参数量太大了,8个epoch根本学的不好,一般得需要预训练参数。在imageNet 21K进行预训练。

预训练也是同样的模型,目标,只是训练集不同吧!大概要训练多久

@920232796
Copy link
Owner

我的example的话,dice能到0.98呀。不过你结果不是很好,也正常,因为这个模型,参数量太大了,8个epoch根本学的不好,一般得需要预训练参数。在imageNet 21K进行预训练。

预训练也是同样的模型,目标,只是训练集不同吧!大概要训练多久

训练起来不慢的 甚至比cnn要快。

@675492062
Copy link

我的example的话,dice能到0.98呀。不过你结果不是很好,也正常,因为这个模型,参数量太大了,8个epoch根本学的不好,一般得需要预训练参数。在imageNet 21K进行预训练。

预训练也是同样的模型,目标,只是训练集不同吧!大概要训练多久

训练起来不慢的 甚至比cnn要快。
imageNet 21K数据集很大啊,并且这个数据集是用于分类的吧,怎么训练分割?没有label吧。还是用分类网络的前半部分用以提取特征,丢掉后面的?

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

4 participants