返回系列列表
AI科普系列
🏗️ 深度学习架构
共 12/12 篇文章 · 用第一性原理理解AI
探索现代深度学习架构:CNN、RNN、Transformer
学习进度12/12 已完成
第 1 课·2026年3月27日
深度学习入门:从人工神经元到神经网络
深度学习是什么?它和传统机器学习有什么区别?从人工神经元开始,理解深度学习的基本原理。
⏱️ 10 分钟#深度学习
开始阅读 →
第 2 课·2026年3月27日
CNN基础:卷积神经网络如何「看」懂图片
CNN(卷积神经网络)是如何处理图像的?卷积、池化、全连接层各自起什么作用?
⏱️ 10 分钟#CNN
开始阅读 →
第 3 课·2026年3月27日
RNN基础:处理序列数据的神经网络
文本、语音、时间序列...这些都是序列数据。RNN(循环神经网络)如何处理这些连续的信息?
⏱️ 10 分钟#RNN
开始阅读 →
第 4 课·2026年3月27日
Transformer基础:改变AI世界的革命性架构
ChatGPT的背后是什么?Transformer如何用「注意力机制」彻底改变了NLP?
⏱️ 10 分钟#Transformer
开始阅读 →
第 5 课·2026年3月27日
GAN基础:两个AI互相对抗,生成逼真内容
生成对抗网络(GAN)是如何工作的?生成器和判别器为什么要互相「斗争」?
⏱️ 10 分钟#GAN
开始阅读 →
第 6 课·2026年3月27日
扩散模型基础:从噪声中重建清晰图像
Stable Diffusion、Midjourney背后的技术是什么?扩散模型如何一步步将噪声转化为图像?
⏱️ 10 分钟#扩散模型
开始阅读 →
第 7 课·2026年3月27日
强化学习基础:AI如何通过试错学会技能
AlphaGo是怎么学会下围棋的?强化学习是如何让AI通过与环境交互不断改进的?
⏱️ 10 分钟#强化学习
开始阅读 →
第 8 课·2026年3月27日
深度强化学习基础:当深度学习遇上强化学习
深度学习和强化学习结合会发生什么?DQN、PPO等算法是如何工作的?
⏱️ 10 分钟#深度强化学习
开始阅读 →
第 9 课·2026年3月27日
注意力机制详解:AI学会「聚焦」关键信息
注意力机制是什么?多头注意力如何让AI同时关注多个信息?
⏱️ 10 分钟#注意力机制
开始阅读 →
第 10 课·2026年3月27日
BERT vs GPT:编码器和解码器的区别
BERT和GPT都是基于Transformer的,但它们的架构和应用场景有什么不同?
⏱️ 10 分钟#BERT
开始阅读 →
第 11 课·2026年3月27日
LLM训练流程:从预训练到RLHF
大语言模型是如何训练出来的?预训练、微调、RLHF分别起什么作用?
⏱️ 10 分钟#LLM
开始阅读 →
第 12 课·2026年3月27日
多模态模型:AI学会「看图说话」
GPT-4V是如何理解图像的?CLIP如何让AI理解文本和图像的关联?
⏱️ 10 分钟#多模态
开始阅读 →
关于本系列
这个系列旨在用第一性原理拆解🏗️ 深度学习架构的核心概念。 每篇文章都聚焦于一个具体的知识点,配有手绘图解,让复杂的概念变得简单易懂。
深度学习神经网络AI基础