论文 《BitFit:Simple Parameter-efficient Fine-tuning for Transformer-based Masked Language-models》:只微调 Pretrained Language Models (PLMs) 的 bias term,是一种 bias-only fine-tuning 方法
使用 Integrated Gradients(积分梯度)来对 AI 进行解释,是一种神经网络的可视化方法
在多模态领域,通过引入 Prompt 来对齐 Visual 和 Text Feature,只需要微调 Prompt 相关的参数,非常高效(Parameter-Efficient)。经过分解之后,Visual Encoder 和 Text Encoder 只需要关注特征的表达工作,而无需再考虑模态之间的对齐工作。基于此,作者提出了 PromptFuse 和 BlindPrompt 模型。
Prompt Tuning for Generative Multimodal Pretrained Models
RLHF:通过强化学习来微调语言模型(ChatGPT 背后的技术之一)
论文 《Fine-Tuning Language Models from Human Preferences》:首次将 RLHF 应用到 Language Model(GPT-2) 上
R-Drop(Regularized Dropout):通过 "Dropout 两次" 的方式达到数据增强的效果,从而增强模型的鲁棒性
本文整理了 7 款 ChatGPT 浏览器插件
指令微调(Instruction Tuning):强化学习 + Prompt Tuning = Embodied AI