论文:通过在上下文中学习提升Llama-2模型的性能
talkingdev • 2023-08-11
1528758 views
在一篇新的研究报告中,研究人员在聊天式提示中通过检索9个演示示例,使用预训练的Llama-2语言模型进行了在上下文中的学习。这种方法并没有改变模型的权重,但它使得与文本达芬奇-003模型相比,赢率增加了7倍,使其与经过对齐微调的模型相当。研究人员希望这种方法能够进一步提升Llama-2模型的表现,使其在未来的语言模型应用中更具优势。
核心要点
- 研究人员在Llama-2语言模型中使用了在上下文中的学习方法。
- 这种方法并没有改变模型的权重,赢率增加了7倍。
- 这种方法使Llama-2模型的性能与经过对齐微调的模型相当。