返回系列列表
AI科普系列
💬 LLM基础
共 10/10 篇文章 · 用第一性原理理解AI
大语言模型的核心概念:Token、预训练、微调、Prompt
学习进度10/10 已完成
第 1 课·2026年3月27日
Token:AI如何「阅读」文本
你有没有想过,为什么AI能读懂你说的每句话?但它其实不认识「字」,只认识「数字」。Token就是AI阅读文本的「字母」。
⏱️ 8 分钟#LLM基础
开始阅读 →
第 2 课·2026年3月27日
分词:把句子切成AI能懂的小块
Token是AI阅读的字母,那这些字母是怎么产生的?为什么「人工智能」有时候是一个Token,有时候是两个?分词算法如何工作?
⏱️ 10 分钟#LLM基础
开始阅读 →
第 3 课·2026年3月27日
词表:AI认识多少个字?
分词需要一个词表作为参考。词表里有多少个Token?这些Token是怎么选出来的?词表大小对AI有什么影响?
⏱️ 8 分钟#LLM基础
开始阅读 →
第 4 课·2026年3月27日
大语言模型:为什么GPT这么厉害?
GPT-4、Claude 3这些大语言模型为什么能写出这么好的文章?它们的秘密是什么?
⏱️ 10 分钟#LLM
开始阅读 →
第 5 课·2026年3月27日
预训练:AI的「通识教育」
大语言模型如何通过预训练学会「通识」?预训练和训练有什么区别?预训练后模型能做什么?
⏱️ 10 分钟#LLM
开始阅读 →
第 6 课·2026年3月27日
微调:让AI学会特定技能
预训练后的AI是个「通才」,如何通过微调让它变成「专才』?微调和预训练有什么区别?
⏱️ 10 分钟#LLM
开始阅读 →
第 7 课·2026年3月27日
LoRA:低成本的模型定制方法
微调大模型需要巨大的算力成本。LoRA如何用1%的成本实现90%的效果?
⏱️ 10 分钟#LLM
开始阅读 →
第 8 课·2026年3月27日
上下文窗口:AI能记住多少内容?
GPT-4能处理128K Token,Claude能处理200K。上下文窗口是什么?它决定了AI什么能力?
⏱️ 8 分钟#LLM
开始阅读 →
第 9 课·2026年3月27日
Prompt:如何和AI有效沟通
为什么有些Prompt能写出好文章,有些就不行?如何写出一个有效的Prompt?
⏱️ 10 分钟#LLM
开始阅读 →
第 10 课·2026年3月27日
Chain of Thought:让AI一步步思考
如何让AI展示思考过程?Chain of Thought如何提升AI的推理能力?
⏱️ 10 分钟#LLM
开始阅读 →
关于本系列
这个系列旨在用第一性原理拆解💬 LLM基础的核心概念。 每篇文章都聚焦于一个具体的知识点,配有手绘图解,让复杂的概念变得简单易懂。
LLM基础Token自然语言处理