面试问答
发表于|更新于|面试准备
|浏览量:
文章作者: azuki
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 很多时候不懂事!
公告
This is my Blog
目录
- 1. 华厦
- 2. 萌译
- 3. 毕设
- 3.1. 你简历里写了“检索增强”,但为什么没有看到你用向量知识库(Vector DB)?
- 3.2. 你为什么用 Qwen-Turbo 做摘要,而不是直接把新闻喂给微调后的 Qwen2.5-7B?
- 3.3. 你的 LoRA 微调具体是怎么做的?有没有遇到什么困难?
- 3.4. 你在项目中使用了 LORA 技术对 Qwen2.5-7B 进行了微调 ,能不能从数学或者原理层面解释一下 LoRA 是怎么工作的?相比于全量微调(Full Fine-tuning)和 P-Tuning,它有什么优势?
- 3.5. 为什么选择 Qwen2.5-7B?它的底层模型架构(如 RoPE 旋转位置编码、SwiGLU 激活函数、RMSNorm 等)相比于传统的标准 Transformer 有哪些具体改进?
- 4. 显存计算