漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-04-15 talkingdev

[开源]C3PO项目推出新测试时优化技术,提升混合专家大语言模型精度

由Tianyi实验室发布的C3PO项目在GitHub开源了一种创新的测试时优化技术,该技术通过基于相似参考样本重新混合专家权重,显著提升了混合专家(Mixture-of-Experts,MoE)大语言模型的准确性。这一突破性方法不仅优化...

Read More
2025-04-10 talkingdev

Rust编译器中的枚举大小优化引发业界关注

近日,Rust编译器中的一项枚举(enum)大小优化技术引发了开发者社区的广泛讨论。该优化通过智能调整枚举类型的内存布局,显著减少了内存占用,尤其在处理包含大量变体的枚举时效果更为明显。Rust团队通过改进编译器...

Read More
2025-03-26 talkingdev

[论文推荐]Midjourney通过后训练提升大型语言模型的多样化创意写作能力

Midjourney近期发布了一项重要工作,旨在提升创意写作模型的多样性表现。该团队通过对一个较小的7B模型进行后训练,使其在创意写作任务中的表现超越了更大规模的开放和封闭模型。这一突破不仅展示了模型优化技术的潜...

Read More
2025-03-17 talkingdev

[论文推荐] Whisper ASR编码器在多语言说话人识别中的新应用

最近,一项名为WSI的研究将Whisper自动语音识别(ASR)编码器重新应用于多语言说话人识别任务,通过联合损失优化技术实现了显著的性能提升。该技术在多语言和多样化环境中识别说话人时,表现优于现有主流模型如Pyann...

Read More
2025-02-14 talkingdev

研究人员展示LLM在减少参数的同时保持学习能力

近日,研究人员通过优化技术展示了大型语言模型(LLMs)在减少非embedding参数的同时仍能保持学习能力。研究表明,通过用优化的子网络替换密集层,LLMs可以在减少高达77%的参数的情况下,依然保持与原有模型相当的性...

Read More
2024-12-16 talkingdev

新型LLM优化技术大幅降低内存成本

近日,一项新的LLM(大型语言模型)优化技术在人工智能领域引起了广泛关注。这项技术通过在模型架构和训练算法上的创新,实现了对LLM内存消耗的显著降低,从而大幅度减少了模型部署和运行的成本。具体来说,这项技术...

Read More
2024-07-26 talkingdev

Zen 5的2-ahead分支预测器:如何利用30年前的想法实现新功能

Zen 5是AMD公司的一款最新处理器,它的2-ahead分支预测器是一项重要的技术创新。这种分支预测器可以帮助CPU在处理指令时更快地判断分支的方向,从而避免处理器浪费时间在错误预测上。这项技术的基础理论可以追溯到30...

Read More
2024-07-20 talkingdev

Aro开源—Zig的新C编译器

近日,Zig的新C编译器Aro在GitHub上发布。Aro是基于Zig语言的全新C编译器,旨在提供更好的错误处理和代码生成。与LLVM不同,Aro使用现代的代码生成技术,可以在编译时检测出更多的错误,并提供更好的诊断信息。此外...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page