返回系列列表
AI科普系列

🧠 神经网络基础

10/10 篇文章 · 用第一性原理理解AI

理解神经网络的工作原理:神经元、前向传播、反向传播

学习进度10/10 已完成
1·2026年3月27日

神经元:AI的最小单位,一个会做决定的小东西

你的大脑里有860亿个神经元。每个神经元都很简单,就是接收信号,然后决定要不要传递出去。AI的神经元也是这样。

⏱️ 8 分钟#神经元
开始阅读 →
2·2026年3月27日

神经网络:一群笨神经元组成的聪明系统

单个神经元很笨。但把它们连起来,让它们互相影响,就能做出聪明的事。这就是神经网络的魔法。

⏱️ 8 分钟#神经网络
开始阅读 →
3·2026年3月27日

前向传播:数据进去,答案出来,就这么简单

数据是如何在神经网络中流动的?从输入到输出,中间发生了什么?

⏱️ 8 分钟#前向传播
开始阅读 →
4·2026年3月27日

反向传播:AI如何从错误中学习

前向传播让AI能给出答案,但答案可能是错的。反向传播就是告诉AI「你错了,该怎么改」。

⏱️ 9 分钟#反向传播
开始阅读 →
5·2026年3月27日

过拟合:AI「背书」而不是真正理解

AI有时候会把训练数据「背」下来,而不是真正学会规律。这就是过拟合。

⏱️ 8 分钟#过拟合
开始阅读 →
6·2026年3月27日

欠拟合:AI连基础都没学好

过拟合是学得太「过」了,那欠拟合呢?是学得太「差」了。

⏱️ 7 分钟#欠拟合
开始阅读 →
7·2026年3月27日

正则化:给AI加上「紧箍咒」,防止它过度学习

为了防止过拟合,我们需要给AI加上一些限制。正则化就是这样一种技术。

⏱️ 8 分钟#正则化
开始阅读 →
8·2026年3月27日

激活函数:AI的「开关」,决定信号要不要通过

神经元需要决定是否「点火」传递信号,这个决定就是由激活函数做出的。

⏱️ 8 分钟#激活函数
开始阅读 →
9·2026年3月27日

优化器:让AI学得更快的「加速器」

梯度下降是基础,但实际使用中有很多改进版本。优化器决定了AI学习的速度和效果。

⏱️ 8 分钟#优化器
开始阅读 →
10·2026年3月27日

超参数:AI的「调味料」,调对了才好吃

学习率、批量大小、网络层数...这些超参数决定了AI的性能。

⏱️ 8 分钟#超参数
开始阅读 →

关于本系列

这个系列旨在用第一性原理拆解🧠 神经网络基础的核心概念。 每篇文章都聚焦于一个具体的知识点,配有手绘图解,让复杂的概念变得简单易懂。

神经元神经网络感知机