漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-05-09 talkingdev

[论文推荐]基于离线数据的Actor-Critic学习算法实现近最优样本效率

强化学习领域取得重要突破,研究人员开发出一种新型actor-critic算法,通过结合离线数据和针对性探索,在混合强化学习场景中实现了接近最优的样本效率。该研究解决了长期困扰强化学习领域的核心挑战——如何在有限的实...

Read More
2025-05-08 talkingdev

[论文推荐]基于LoRA的代码检索方法:参数减少98%准确率提升9.1%

研究人员最新提出了一种基于LoRA(低秩适应)的微调方法,专门针对代码搜索任务进行优化。该方法通过低秩矩阵分解技术,将可训练参数总量压缩至原始模型的2%以下,同时显著提升了代码检索的准确率——在Code2Code任务...

Read More
2025-05-05 talkingdev

[论文推荐]FUSED提出高效联邦遗忘机制:可逆且低成本的稀疏遗忘适配器

联邦学习领域迎来突破性进展,FUSED(Federated Unlearning with Sparse Efficient Deletion)系统通过创新的稀疏遗忘适配器技术,首次实现了联邦学习环境下的定向知识擦除与可逆操作。该技术通过在模型微调层植入轻...

Read More
2025-05-02 talkingdev

[论文推荐]Fed-SB提出基于LoRA-SB的联邦学习微调方案,显著降低通信成本

Fed-SB研究团队在arXiv最新论文中提出了一种突破性的联邦学习框架LoRA-SB,该技术通过低秩自适应(Low-Rank Adaptation, LoRA)方法实现大型语言模型(LLM)的高效分布式微调。这一创新方案通过参数高效微调(PEFT)技术,...

Read More
2025-05-01 talkingdev

[论文推荐]研究人员发现通过表征控制向量可调节大语言模型推理能力

最新研究表明,通过在大语言模型(LLM)的残差流中实施简单的表征控制向量干预,可显著调节其推理性能。这项发表于arXiv的突破性研究揭示了神经网络内部表征与逻辑推理能力的直接关联,为可解释AI领域提供了新工具。...

Read More
2025-05-01 talkingdev

Promptrepo:无需编码,用Google Sheets即可微调AI模型

Promptrepo团队推出了一款创新工具,旨在让产品团队(而不仅仅是机器学习工程师)能够轻松进行AI模型的微调。OpenAI首席产品官近期分享了微调技术在从客户支持到深度研究等领域的广泛应用,并称其为严肃AI团队的未来...

Read More
2025-04-29 talkingdev

[论文推荐]ReLearn:大语言模型高效遗忘学习的数据增强与微调方案

来自arXiv的最新研究论文提出ReLearn框架,通过创新的数据增强和微调技术,解决了大语言模型(LLMs)中的关键挑战——'遗忘学习'(Unlearning)。该技术可精准移除模型训练数据中的特定信息,同时保持整体性能,对数据...

Read More
2025-04-21 talkingdev

[论文推荐]自回归模型实现个性化图像合成:两阶段优化媲美扩散模型

最新研究通过两阶段优化策略,成功将自回归模型应用于个性化图像生成领域,其生成质量已达到当前主流的扩散模型水平。该论文提出创新性训练框架,第一阶段通过大规模数据集预训练构建基础模型,第二阶段采用针对性微...

Read More
  1. Prev Page
  2. 5
  3. 6
  4. 7
  5. Next Page