第 14 篇 · 神经网络基础

欠拟合:AI连基础

都没学好

上一篇我们说过拟合是AI学得太「过」了,把训练数据都背下来了。那如果AI学得太「差」了呢?

想象一下,一个学生上课不认真,作业也不做,考试的时候什么都不会。这就是「欠拟合」——AI连基础都没学好。

今天,我们来看看欠拟合是什么,以及如何解决这个问题。

1
什么是欠拟合?

欠拟合(Underfitting)是指模型在训练数据上表现就很差,更不用说在新数据上了。

欠拟合 vs 正常拟合 vs 过拟合
❌ 欠拟合

太简单,抓不住规律

✅ 正常

刚刚好

❌ 过拟合

太复杂,记住了噪声

简单理解:欠拟合是「学得太少」,正常是「学得刚好」,过拟合是「学得太过」。我们要找的是中间那个「刚刚好」的状态。

继续看下去

2
为什么会欠拟合?

原因1🪶

模型太简单

就像用一根直尺去量弯曲的河流,模型复杂度不够,无法捕捉数据中的复杂规律。
原因2⏱️

训练不够

训练时间太短,模型还没收敛就停止了。就像课只上了一半就去考试。
原因3🔒

正则化太强

为了防止过拟合,正则化力度太大,反而限制了模型的学习能力。
模型复杂度与拟合程度
模型复杂度 →误差 →训练误差测试误差欠拟合区最佳区过拟合区

3
如何识别欠拟合?

欠拟合的症状

📝 训练集表现差

训练准确率很低(比如只有60%),说明模型连训练数据都没学会。

📉 损失不降

训练过程中损失函数一直很高,不再下降或者下降很慢。

🎯 测试集也差

训练集和测试集的表现都很差,而且差距不大。

🔍 可视化问题

把模型预测画出来,发现预测结果和真实数据差距很大。

💡
欠拟合和过拟合的关键区别:欠拟合是训练集和测试集都差;过拟合是训练集好但测试集差。

4
如何解决欠拟合?

方法1:增加模型复杂度
🏗️

增加层数或神经元数量

让模型有能力学习更复杂的规律

方法2:训练更久

增加训练轮数(Epochs)

给模型更多时间学习和收敛

方法3:减少正则化
🔓

降低正则化强度

放松对模型的限制,让它更自由地学习

方法4:更好的特征

特征工程

提供更有信息量的输入特征

5
偏差与方差的权衡

欠拟合和过拟合可以用「偏差-方差权衡」来理解。

偏差 vs 方差
高偏差(欠拟合)
🎯

总是打偏

模型太简单,系统性错误

  • • 训练误差高
  • • 测试误差也高
  • • 模型没抓住规律
高方差(过拟合)
🎯

打得很散

模型太复杂,不稳定

  • • 训练误差低
  • • 测试误差高
  • • 对噪声敏感

目标:找到偏差和方差的平衡点,让模型既不会系统性地犯错,也不会对噪声过于敏感。

6
常见误区

❌ 误区1:欠拟合比过拟合好

欠拟合和过拟合都是问题。欠拟合的模型完全没用,过拟合的模型至少对训练数据有效。两者都需要解决。

❌ 误区2:增加数据能解决欠拟合

欠拟合是模型能力不足,不是数据不够。增加数据对欠拟合帮助不大,应该先增加模型复杂度。

❌ 误区3:欠拟合只发生在简单模型

即使是深度网络,如果训练不够、正则化太强,或者学习率设置不当,也可能欠拟合。

总结

🎓 一句话总结

  • 欠拟合 = 训练集和测试集表现都很差(学得太少)
  • 原因:模型太简单、训练不够、正则化太强
  • 解决:增加复杂度、训练更久、减少正则化
  • 机器学习的目标是找到偏差和方差的平衡

下篇预告

第15篇:正则化——给AI加上「紧箍咒」,防止它过度学习

为了防止过拟合,我们需要给AI加上一些限制。正则化就是这样一种技术。下一篇,我们来看看正则化是如何工作的。

✏️ 手绘图解 · AI Catch 出品

第 14 篇 / 共 84 篇