恕我直言,很多小样本学习的工作就是不切实际的
极市导读
NYU、facebook、CIFAR最新文章表示:以前prompt 的方法也不是真正的小样本学习,真正的小样本学习,训练集验证集都要小!
True Few-Shot Learning with Language Models
http://arxiv-download.xixiaoyao.cn/pdf/2105.11447v1.pdf
https://github.com/ethanjperez/true_few_shot
真正的小样本学习
Data-Rich Supervised 表示传统有大量数据的有监督学习。 Multi-Distribution Few-Shot 表示原始的小样本学习情景,即在大量 n-way k-shot 上进行训练。由于每个 task 都包含不同的数据分布,因此这相当于在不同的分布中训练,在新的分布中使用模型。 Tuned Few-Shot 表示从 GPT3 开始的,用 prompt 的方式对预训练模型微调。 True Few-Shot 就是本文提出的啦!
那还能调参嘛?
k 折交叉验证:将数据集分为 k 个部分,用其中 k-1 个部分作为训练集,剩下的一个部分作为验证集。在后面的实验中,这种方法被称作 CV(cross validation)。
类似在线学习的交叉验证:将数据集分为 k 个部分,第 1 轮用第 1 部分训练,第 2 部分验证,第 i 轮用前 i 部分训练,第 i+1 部分验证。在后面的实验中,这种方法被称作 MDL(minimum description lengthm),因为其本质上遵循的是最小描述长度准则。
实验和分析
总结
在写文章的时候,同时注明模型选择的原则,以及所有超参数和尝试的 prompts。 将验证集的数量也归入小样本学习的“数据量”里。 当有大量样本作为验证集的时候,先不要用!先在测试集直接得到结果、做消融实验,等所有试验完成后,最后再引入验证集。这样避免实验结果使用验证集大量样本的信息。 不要使用前人工作中的超参数,只在这少量样本中重新调参。
本文亮点总结
在写文章的时候,同时注明模型选择的原则,以及所有超参数和尝试的 prompts。 将验证集的数量也归入小样本学习的“数据量”里。 当有大量样本作为验证集的时候,先不要用!先在测试集直接得到结果、做消融实验,等所有试验完成后,最后再引入验证集。这样避免实验结果使用验证集大量样本的信息。 不要使用前人工作中的超参数,只在这少量样本中重新调参。
赞 (0)