回归预测模型时训练集的预测准确率低于测试集的原因?
意外 随机导致的, 建议你用交叉验证来实验,这样分配到训练集和测试集结果平均值才有说服力 祝你顺利为什么训练集的交叉验证准确率低于测试集的准确率
[size=14.px]做分类预测等数据挖掘任务时,需要测试所建立模型的准确性时,如没有事先划分好的训练集与测试集,常采用的方案有。 [size=14.px] A. 随机划分数据集:将数据集随机划分成训练集和测试集,一般按照3:1的比例划分,其中3/4的数据集用于模型的建立,1/4数据集用于测试所建立模型的性能。最终模型的性能,通过K次随机划分数据集,可以得到K次划分的模型性能的平均值,作为建立模型的性能。 [size=14.px] B. 交叉检验(Cross-Validation):交叉检验,是按一定的方式将数据集划分成训练集和测试集,每个数据记录既有作为训练集,又有作为测试集。常用的交叉检cnn训练准确率很高,测试准确率很低(loss有一直下降)是为什么?
可能的原因:
有可能是层数较少,可以尝试增加卷积层;可能性不大。
之前我有出现过类似的情况,数据本身质量太低,就算训练层可以保证很高的准确率也没有什么意义,此时已经过拟合了。 这种情况是没有办法的,因为你的数据本身就有问题,无解。 你可以尝试用 机器学习的方法提取特征值 来验证, 如果此时准确率比CNN结果要好,那么就是你网络本身的问题,如果准确率也很差, 那就应该是你数据本身质量的问题。