1. BitFit:只微调 Bias Term 的轻量化微调方法

    论文 《BitFit:Simple Parameter-efficient Fine-tuning for Transformer-based Masked Language-models》:只微调 Pretrained Language Models (PLMs) 的 bias term,是一种 bias-only fine-tuning 方法

    2023/03/17 PEFT

  2. 积分梯度(Integrated Gradients)

    使用 Integrated Gradients(积分梯度)来对 AI 进行解释,是一种神经网络的可视化方法

    2023/03/16 eXplainable AI (XAI)

  3. 论文:Modular and Parameter-Efficient Multimodal Fusion with Prompting

    在多模态领域,通过引入 Prompt 来对齐 Visual 和 Text Feature,只需要微调 Prompt 相关的参数,非常高效(Parameter-Efficient)。经过分解之后,Visual Encoder 和 Text Encoder 只需要关注特征的表达工作,而无需再考虑模态之间的对齐工作。基于此,作者提出了 PromptFuse 和 BlindPrompt 模型。

    2023/03/16 Prompt Tuning Multimodal

  4. 论文:Prompt Tuning for Generative Multimodal Pretrained Models

    Prompt Tuning for Generative Multimodal Pretrained Models

    2023/03/16 Prompt Tuning Multimodal

  5. RLHF(Reinforcement Learning from Human Feedback)

    RLHF:通过强化学习来微调语言模型(ChatGPT 背后的技术之一)

    2023/03/15 ChatGPT RLHF

  6. 《Fine-Tuning Language Models from Human Preferences》

    论文 《Fine-Tuning Language Models from Human Preferences》:首次将 RLHF 应用到 Language Model(GPT-2) 上

    2023/03/15 RLHF

  7. R-Drop:Regularized Dropout for Neural Networks

    R-Drop(Regularized Dropout):通过 "Dropout 两次" 的方式达到数据增强的效果,从而增强模型的鲁棒性

    2023/03/14 AI 论文

  8. ChatGPT 浏览器插件

    本文整理了 7 款 ChatGPT 浏览器插件

    2023/03/13 工具 ChatGPT

  9. 指令微调(Instruction Tuning)

    指令微调(Instruction Tuning):强化学习 + Prompt Tuning = Embodied AI

    2023/03/12 AI 论文 ChatGPT