技术博客

关于大模型技术的思考与笔记。

01

什么是大语言模型?

从 GPT 到 GLM,理解大模型的基本原理
02

Transformer 架构详解

注意力机制如何改变自然语言处理
03

大模型是怎么训练出来的

预训练、微调与 RLHF 的完整流程
04

大模型的应用场景

从聊天机器人到代码生成,大模型的落地实践
05

大模型的未来与挑战

AGI、多模态、端侧部署与伦理思考