第 19 篇 · 深度学习架构
深度学习到底是什么?从人工神经元说起
之前我们聊过,机器学习就是让计算机从数据中学习规律。但如果数据太复杂呢?比如一张图片有几百万个像素点,人类根本没法手工告诉计算机「猫的耳朵长这样」。
这时候,深度学习就派上用场了。它不再需要人类手工设计特征,而是用多层神经网络自动提取特征。
1深度学习 = 多层神经网络
深度学习的「深」,指的就是层数多。一个典型的深度神经网络可能有几十层甚至几百层。
深度学习架构示意
输入层
接收原始数据(图像、文本等)
隐藏层 1
隐藏层 2
隐藏层 3
输出层
给出预测或分类结果
🎯
关键点:每一层都在学习越来越抽象的规律。第一层可能只识别简单的边缘和线条,第二层识别形状和纹理,后面几层就能识别出「猫脸」这样的复杂概念。
人工神经元长什么样
2人工神经元 = 简化版生物神经元
深度学习的灵感来自大脑的神经元。一个人工神经元做的事很简单:
人工神经元的工作流程
输入
接收多个输入信号 x₁, x₂, ...
比如:像素值、单词编码等
计算
加权求和 + 激活函数
y = f(w₁x₁ + w₂x₂ + b)
类比理解:每个神经元都在做一个简单的决策——「这个特征重要吗?如果足够重要就激活,否则保持沉默」。无数个这样的决策叠加在一起,就产生了复杂的智能行为。
3为什么不能只用一层?
如果只有一个隐藏层,神经网络只能处理线性可分的问题(比如画一条线就能分开的两类数据)。但现实世界是高度非线性的,需要多层网络来逼近任意复杂的函数。
单层 vs 多层
单层网络
只能画直线
处理不了复杂边界
多层网络
可以画任意复杂形状
逼近任何函数
4深度学习的「武器库」
不同任务需要不同的架构。深度学习有几种经典的架构类型:
CNN🖼️
卷积神经网络
适合处理网格状数据,比如图片。它能捕捉局部模式(边缘、纹理),并逐层组合成复杂特征。
RNN🔄
循环神经网络
适合处理序列数据,比如文本、语音。它能记住前面的信息,理解上下文。
Transformer⚡
注意力机制
适合处理需要长距离依赖的任务,比如机器翻译、聊天机器人。它能「关注」输入中的关键部分。
总结
🎓 一句话总结
- ①深度学习 = 多层神经网络,自动提取特征
- ②人工神经元 = 简化版生物神经元,做加权求和 + 激活
- ③多层网络 = 能处理非线性问题,逼近任意复杂函数
- ④经典架构 = CNN(图像)、RNN(序列)、Transformer(注意力)
→下篇预告
第20篇:卷积神经网络(CNN)——计算机视觉的基石
CNN是处理图像的神器,它的「卷积」操作就像在图片上移动一个小窗口,逐块提取特征。下一篇,我们来详细拆解CNN的结构和工作原理。
✏️ 手绘图解 · AI Catch 出品
第 19 篇 / 深度学习架构篇