欠拟合:AI连基础
都没学好
上一篇我们说过拟合是AI学得太「过」了,把训练数据都背下来了。那如果AI学得太「差」了呢?
想象一下,一个学生上课不认真,作业也不做,考试的时候什么都不会。这就是「欠拟合」——AI连基础都没学好。
今天,我们来看看欠拟合是什么,以及如何解决这个问题。
1什么是欠拟合?
欠拟合(Underfitting)是指模型在训练数据上表现就很差,更不用说在新数据上了。
太简单,抓不住规律
刚刚好
太复杂,记住了噪声
简单理解:欠拟合是「学得太少」,正常是「学得刚好」,过拟合是「学得太过」。我们要找的是中间那个「刚刚好」的状态。
2为什么会欠拟合?
模型太简单
训练不够
正则化太强
3如何识别欠拟合?
📝 训练集表现差
训练准确率很低(比如只有60%),说明模型连训练数据都没学会。
📉 损失不降
训练过程中损失函数一直很高,不再下降或者下降很慢。
🎯 测试集也差
训练集和测试集的表现都很差,而且差距不大。
🔍 可视化问题
把模型预测画出来,发现预测结果和真实数据差距很大。
4如何解决欠拟合?
增加层数或神经元数量
让模型有能力学习更复杂的规律
增加训练轮数(Epochs)
给模型更多时间学习和收敛
降低正则化强度
放松对模型的限制,让它更自由地学习
特征工程
提供更有信息量的输入特征
5偏差与方差的权衡
欠拟合和过拟合可以用「偏差-方差权衡」来理解。
总是打偏
模型太简单,系统性错误
- • 训练误差高
- • 测试误差也高
- • 模型没抓住规律
打得很散
模型太复杂,不稳定
- • 训练误差低
- • 测试误差高
- • 对噪声敏感
目标:找到偏差和方差的平衡点,让模型既不会系统性地犯错,也不会对噪声过于敏感。
6常见误区
❌ 误区1:欠拟合比过拟合好
欠拟合和过拟合都是问题。欠拟合的模型完全没用,过拟合的模型至少对训练数据有效。两者都需要解决。
❌ 误区2:增加数据能解决欠拟合
欠拟合是模型能力不足,不是数据不够。增加数据对欠拟合帮助不大,应该先增加模型复杂度。
❌ 误区3:欠拟合只发生在简单模型
即使是深度网络,如果训练不够、正则化太强,或者学习率设置不当,也可能欠拟合。
🎓 一句话总结
- ①欠拟合 = 训练集和测试集表现都很差(学得太少)
- ②原因:模型太简单、训练不够、正则化太强
- ③解决:增加复杂度、训练更久、减少正则化
- ④机器学习的目标是找到偏差和方差的平衡
→下篇预告
第15篇:正则化——给AI加上「紧箍咒」,防止它过度学习
为了防止过拟合,我们需要给AI加上一些限制。正则化就是这样一种技术。下一篇,我们来看看正则化是如何工作的。
✏️ 手绘图解 · AI Catch 出品
第 14 篇 / 共 84 篇