957 道题 · 每道解析均有量化数据
从实战项目打磨出来的
大模型面试题库
解析不来自教科书,来自真实落地项目——每道题都有量化数字、真实踩坑和技术选型理由
已有 1,000+ 同学通过字节、百度、阿里大模型岗面试
本月新增
+187道新题
今日已刷
12/20 题
吴师兄大模型面经 · RAG 专项
全部RAG 检索AgentLLM原理微调
#001基础
什么是 RAG?检索增强生成的核心原理与应用场景
RAG 检索增强
#002进阶
Agent 的核心组成模块是什么?如何设计工具调用机制?
Agent 智能体
#003进阶
Transformer 的注意力机制为什么是 O(n²) 复杂度?
LLM 基础原理
957道精选题目
10个核心专题
100%解析来自真实项目
题目来源
题目从这里来
每道解析背后,都有一个真实落地的工程项目
第四周
旅行顾问 Agent 微调
基于 Qwen-3 0.6B,Function Calling 链式工具调用,数据沙盒构造 + 不平衡样本处理
成功率 30% → 95%
→ 延伸 40+ 道题
Function CallingSFT数据工程LoRA微调
第五周
RLHF/GRPO 奖励模型训练
基于 dsr1-7b,GRPO 训练客服 Reward Model,人机协同偏好数据标注 + RM-R1 Chain-of-Rubrics
任务完成率 35% → 96%幻觉率 8% → 1%
→ 延伸 35+ 道题
GRPOReward ModelRLHF
RAG 训练营
金融知识库系统
离线解析 + 在线召回 + 混合检索,Embedding 模型选型 / Rerank / 多轮对话管理
召回率提升 32%
→ 延伸 50+ 道题
RAG召回Chunk切分评估体系
Transformer 基础
MHA/GQA/MLA 精讲
从原版 MHA 到 LLaMA-2 的 GQA,再到 DeepSeek-V2 的 MLA,注意力机制演进的工程动机
KV Cache 减少 8 倍
→ 延伸 115+ 道题
注意力机制KV Cache推理优化
实战经验
vLLM vs HF 输出排查
95% 的「两者输出不一致」都来自 LoRA 未正确加载、RoPE 配置差异、版本不一致这三个原因
系统性排查清单
→ 延伸 27+ 道题
vLLM部署LoRA推理框架
差异化
这里的解析,和别处不同
01
数字是实测出来的
端到端成功率 30%→95%,不是估算,是实际训练了 Qwen-3 0.6B 跑出来的。每道题的量化数据都有出处。
02
坑是真实踩过的
模型无限生成 <tool_call> 的卡死问题、Loss Mask 设计错误导致性能差、vLLM 加载 LoRA 的正确姿势——这些不是从论文里抄的,是项目里碰到的。
03
选型有工程逻辑
为什么用 LoRA 而不用全量微调、为什么选 DPO 而不选 PPO——每道题的解析都说清楚了背后的取舍依据。