减少可避免偏差的技术

    • 加大模型规模(例如神经元/层的数量):这项技术能够使算法更好地拟合训练集,从而减少偏差。当你发现这样做会增大方差时,通过加入正则化可以抵消方差的增加。
    • 减少或者去除正则化(L2 正则化,L1 正则化,dropout):这将减少可避免偏差,但会增大方差。

    有一种方法并不能奏效:

    • 添加更多的训练数据:这项技术可以帮助解决方差问题,但它对于偏差通常没有明显的影响。