基础概念第 4 课
特征就是AI的眼睛
决定了它能看到什么
2026年3月27日10 分钟阅读
1教外星人认识猫
想象你要教一个外星人认识猫。你会告诉它什么?
- 有胡须
- 耳朵是尖的
- 会叫「喵」
- 有四条腿
- 尾巴很长
这些描述就是特征。特征就是用来描述一个东西的属性或特点。
猫的特征
胡须
🐱
识别标志
尖耳朵
🐱
形状特征
叫声
🐱
声音特征
为什么选这些特征?
因为这些特征能区分猫和其他动物:
- 🐶 狗:有四条腿,但耳朵不一定是尖的,叫声是「汪」
- 🐰 兔子:有四条腿,耳朵是长的但不是尖的,不会「喵」叫
- 🐭 老鼠:有胡须,但体型小,四条腿很短
核心类比:特征 = AI的眼睛。你告诉AI看哪些特征,它就关注哪些;你没告诉它的,它就「看不见」。
2特征工程:人类的工作
在传统机器学习中,有一个重要步骤叫特征工程。
特征工程的过程
原始数据
📷📝🎤
一堆原始信息
图片、文本、数字、音频
↓
特征提取
👨🔬
人类专家提取关键特征
颜色、大小、关键词、频率...
↓
特征向量
🔢🔢🔢
转换成数字向量
[0.8, 0.3, 0.9, ...]
比如预测房价,你可能需要提取这些特征:
- 面积(平方米)
- 卧室数量
- 到地铁站的距离
- 房龄
- 周边学校评分
特征工程的难度
- 🎯 需要专业知识:要知道哪些特征重要
- ⏱️ 耗时耗力:每次新任务都要重新设计特征
- 🔍 难以发现隐藏模式:人眼看不到的特征AI可能需要
- 🧠 经验依赖:依赖专家的直觉和经验
3深度学习:自动学习特征
深度学习最大的突破之一,就是自动学习特征。
传统机器学习 vs 深度学习
传统机器学习:人类先提取特征,AI只负责学习特征和结果的关系。
深度学习:直接把原始数据丢给AI,AI自己决定看哪些特征。
深度学习如何自动学习特征
输入层
原始图像像素
🖼️ [1024, 768, 3]
↓
第1层:边缘检测
识别线条、边界
〰️ 🔲
↓
第2层:简单形状
识别圆、方、三角
⭕ ⬜ 🔺
↓
第3层:复杂图案
识别眼睛、耳朵、胡须
👁️ 👂 🐱
↓
输出层:分类
识别整个物体
猫:98% | 狗:2%
这种分层学习的方式,让深度学习能够从简单到复杂,逐步理解数据。
为什么自动学习这么厉害?
- 🚀 端到端学习:从原始数据到最终结果,一次训练完成
- 🔬 发现隐藏特征:人类看不到的模式,AI可能发现
- 📈 可迁移性:学到的特征可以迁移到其他任务
- 🌐 通用性强:同一套框架可以处理图像、文本、音频
4特征选择的重要性
选对了特征,事半功倍;选错了特征,事倍功半。
好特征 vs 坏特征
好特征
预测房价:
- ✓ 面积、地段、房龄
- ✓ 与价格直接相关
- ✓ 逻辑清晰
- ✓ 容易获取
坏特征
预测房价:
- ✗ 房主的名字笔画数
- ✗ 门牌号的吉凶
- ✗ 与价格无关
- ✗ 充满噪音
关键洞察:好的特征应该与你要预测的东西有逻辑关联。无关的特征只会增加噪音,让AI学到错误的东西。
特征选择的方法
- 🔢 统计方法:用统计指标(如相关系数)筛选特征
- 🎯 模型权重:看模型训练后各个特征的重要性
- 🔍 递归消除:逐步移除不重要的特征
- 👥 专家经验:结合领域知识选择特征
5特征向量的表示
AI不能直接理解文本或图像,需要把它们转换成特征向量——就是一个数字列表。
如何表示一个词?
One-hot编码
「猫」
[1, 0, 0, 0, 0]
稀疏,维度高
词嵌入
「猫」
[0.8, -0.3, 0.6]
密集,有语义
BERT表示
「猫」
[0.2, 0.9, -0.1, ...]
上下文相关
特征向量的维度
- 📊 简单任务:几十到几百维
- 🎨 图像识别:几千到几万维
- 📝 文本处理:几百到上千维
- 🧠 大语言模型:几千维(embedding)
6特征在不同领域的应用
不同领域关注不同的特征:
各领域的特征举例
🖼️ 图像识别
- 边缘、纹理、颜色
- 形状、轮廓
- 物体的部件
📝 文本处理
- 词频、TF-IDF
- 词向量、句向量
- 语法结构、语义信息
🎵 音频处理
- 音高、音色、响度
- 频谱、节奏
- 声纹特征
🛒 推荐系统
- 用户画像(年龄、性别)
- 物品属性(类别、标签)
- 交互历史(点击、购买)
7总结
核心要点
- ✅ 特征是描述事物的属性,决定了AI能看到什么
- ✅ 传统机器学习需要人工提取特征(特征工程)
- ✅ 深度学习可以自动学习特征,这是它的强大之处
- ✅ 选对特征比选多特征更重要
- ✅ 特征需要转换成向量,AI才能理解
- ✅ 不同领域的特征差异很大,需要针对性设计