CPQS-TUNING 论文引文阅读
文章目录一、引言 / 指令微调基础必看 5 篇二、相关工作数据过滤 / 数据选择核心对标 4 篇三、方法动机隐状态 / 模型内部信号关键 3 篇四、实验与基准打榜必引 4 篇五、模型与工程可选但规范极简总结写论文直接用我直接按你这篇CPQS‑Tuning原文的章节逻辑把参考文献里最值得读、最经典、最能支撑你论文的论文按章节整理好标题年份一句话推荐理由你写综述直接抄。一、引言 / 指令微调基础必看 5 篇Training language models to follow instructions with human feedbackInstructGPT, 2022推荐指令微调 RLHF 开山之作所有对齐工作的源头必须引。Stanford Alpaca: An instruction-following LLaMA modelAlpaca, 2023推荐开源指令微调范式鼻祖你用的 Alpaca‑GPT4 就是它的延伸。Language models are few‑shot learnersGPT‑3, 2020推荐基座大模型预训练的里程碑解释“基座模型为什么需要微调”。LIMA: Less is more for alignment2023推荐高质量小数据胜过大数据直接支撑你“数据过滤/精选”的动机。The Flan Collection: Designing data and methods for effective instruction tuning2023推荐指令微调数据工程最系统工作奠定数据质量重要性。二、相关工作数据过滤 / 数据选择核心对标 4 篇Alpagasus: Training a better alpaca with fewer dataICLR 2024推荐用强 LLM 打分做数据过滤你论文里直接对比的 SOTA。MoDS: Model‑oriented data selection for instruction tuning2023推荐面向目标模型的数据选择和你“模型自感知”思路最接近。Superfiltering: Weak‑to‑strong data filtering for fast instruction tuningACL 2024推荐小模型替大模型过滤低成本数据筛选标杆你必对比。What makes good data for alignment?ICLR 2024推荐自动数据选择最全面综述类工作适合写相关工作。三、方法动机隐状态 / 模型内部信号关键 3 篇I’ve got the “answer”! Interpretation of LLM hidden states in QA2024推荐证明隐状态包含质量/正确性信号直接支撑你 CPQS 核心假设。Latent space chain‑of‑embedding enables output‑free LLM self‑evaluation2024推荐不用生成答案用隐状态做自我评估和你思路高度一致。HSF: Defending against jailbreak attacks with hidden state filteringWWW 2025推荐用隐状态做过滤/筛选的实例证明隐状态可用于数据判别。四、实验与基准打榜必引 4 篇Measuring Massive Multitask Language UnderstandingMMLU, 2021推荐大模型知识能力最通用基准你论文必测。Training verifiers to solve math word problemsGSM8K, 2021推荐数学推理标准集你下游任务核心基准。Evaluating large language models trained on codeHumanEval, 2021推荐代码生成权威基准你代码实验必引。AlpacaEval: An automatic evaluator of instruction‑following models2023推荐指令跟随能力自动评测标准你对话类效果必用。五、模型与工程可选但规范LLaMA 2: Open foundation and fine‑tuned chat models2023推荐开源基座模型标杆你实验用的 Llama2 来源。Qwen2.5 technical report2024推荐你实验用到的强中文基座必须标注来源。极简总结写论文直接用想讲为什么要指令微调读 InstructGPT、Alpaca、LIMA想讲为什么要数据过滤读 Alpagasus、Superfiltering、MoDS想讲为什么能用隐状态读隐状态解读 自评估那 3 篇想做评测打榜读 MMLU、GSM8K、HumanEval、AlpacaEval需要我把这些整理成可直接粘贴进论文的“Related Work”标准段落吗