在 finetuning 时增加了很多的数据(很多的指令 Instruction),然后再 unseen task 上进行 zero-shot inference
问题: 如何构造这么多的 Instruction?
OpenAI CLIP
- text token length:77
- visual token length:257(256 + 1)
R-Drop Loss
AutoModelForMaskedLM -> bert-base-chinese
AutoTokenizer -> bert-base-chinese
dataset -> datasets.load_dataset()
max_seq_len: max sequence length
max_label_len: max label (predicted value) length
p_tokens_len: p-tuning tokens length (numbers)
文档信息
- 本文作者:Bookstall
- 本文链接:https://bookstall.github.io/2023/03/14/p-tuning/
- 版权声明:自由转载-非商用-非衍生-保持署名(创意共享3.0许可证)