返回系列列表
AI科普系列

💬 LLM基础

10/10 篇文章 · 用第一性原理理解AI

大语言模型的核心概念:Token、预训练、微调、Prompt

学习进度10/10 已完成
1·2026年3月27日

Token:AI如何「阅读」文本

你有没有想过,为什么AI能读懂你说的每句话?但它其实不认识「字」,只认识「数字」。Token就是AI阅读文本的「字母」。

⏱️ 8 分钟#LLM基础
开始阅读 →
2·2026年3月27日

分词:把句子切成AI能懂的小块

Token是AI阅读的字母,那这些字母是怎么产生的?为什么「人工智能」有时候是一个Token,有时候是两个?分词算法如何工作?

⏱️ 10 分钟#LLM基础
开始阅读 →
3·2026年3月27日

词表:AI认识多少个字?

分词需要一个词表作为参考。词表里有多少个Token?这些Token是怎么选出来的?词表大小对AI有什么影响?

⏱️ 8 分钟#LLM基础
开始阅读 →
4·2026年3月27日

大语言模型:为什么GPT这么厉害?

GPT-4、Claude 3这些大语言模型为什么能写出这么好的文章?它们的秘密是什么?

⏱️ 10 分钟#LLM
开始阅读 →
5·2026年3月27日

预训练:AI的「通识教育」

大语言模型如何通过预训练学会「通识」?预训练和训练有什么区别?预训练后模型能做什么?

⏱️ 10 分钟#LLM
开始阅读 →
6·2026年3月27日

微调:让AI学会特定技能

预训练后的AI是个「通才」,如何通过微调让它变成「专才』?微调和预训练有什么区别?

⏱️ 10 分钟#LLM
开始阅读 →
7·2026年3月27日

LoRA:低成本的模型定制方法

微调大模型需要巨大的算力成本。LoRA如何用1%的成本实现90%的效果?

⏱️ 10 分钟#LLM
开始阅读 →
8·2026年3月27日

上下文窗口:AI能记住多少内容?

GPT-4能处理128K Token,Claude能处理200K。上下文窗口是什么?它决定了AI什么能力?

⏱️ 8 分钟#LLM
开始阅读 →
9·2026年3月27日

Prompt:如何和AI有效沟通

为什么有些Prompt能写出好文章,有些就不行?如何写出一个有效的Prompt?

⏱️ 10 分钟#LLM
开始阅读 →
10·2026年3月27日

Chain of Thought:让AI一步步思考

如何让AI展示思考过程?Chain of Thought如何提升AI的推理能力?

⏱️ 10 分钟#LLM
开始阅读 →

关于本系列

这个系列旨在用第一性原理拆解💬 LLM基础的核心概念。 每篇文章都聚焦于一个具体的知识点,配有手绘图解,让复杂的概念变得简单易懂。

LLM基础Token自然语言处理