漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-05-21 talkingdev

[论文推荐]DeepSeek-V3训练内幕:揭秘硬件-模型协同设计突破性实践

DeepSeek研究团队以DeepSeek-V3为案例,分享了大型语言模型(LLM)训练中的硬件-模型协同设计创新成果。该研究通过多头部潜在注意力机制(Multi-head Latent Attention)、专家混合系统(Mixture of Experts)、FP8...

Read More
2025-05-21 talkingdev

[论文推荐]强化学习权威教材更新:涵盖传统方法到DPO、GPRO等前沿技术

谷歌高被引研究员Kevin Murphy近期更新了其200页的强化学习权威教材,系统性地覆盖了从传统方法到直接偏好优化(DPO)、广义策略优化(GPRO)以及推理技术等最前沿进展。该教材作为领域内的标杆性文献,不仅整合了经...

Read More
2025-05-21 talkingdev

KumoRFM:无需特定任务训练即可跨数据库工作的关系型基础模型

KumoRFM是一种预训练的关系型基础模型,其设计初衷是能够在任何数据库和预测任务上工作,而无需进行特定任务的训练。这一技术的突破性在于其通用性和适应性,能够显著降低企业在不同数据场景下部署AI模型的复杂性和...

Read More
2025-05-21 talkingdev

Fastino推出TLMs:专精任务的语言模型,性能超越LLMs

在人工智能领域,通用大模型(LLMs)虽然功能强大,但对于特定任务而言,其庞大的计算资源消耗和较高的成本并不总是最优选择。为此,Fastino公司推出了专精任务的语言模型(TLMs),旨在为特定任务提供更高效、更精...

Read More
2025-05-21 talkingdev

开源:.NET平台迎来零分配LINQ库“ZLinq”,性能优化新选择

近日,开发者社区热议一款名为“ZLinq”的新型LINQ库,其主打零内存分配特性,专为.NET平台设计。LINQ(Language Integrated Query)作为.NET生态中数据查询的核心技术,长期面临性能损耗问题,尤其在频繁操作时易产生...

Read More
2025-05-20 talkingdev

[开源]基于AWS低成本微调Qwen2.5B模型实现推理能力突破

GitHub最新开源项目展示了一种针对Qwen2.5B大语言模型的创新微调方案,该方案采用SFT(监督微调)结合GRPO(梯度反向传播优化)的混合训练框架,其技术路线受到DeepSeek R1架构启发,并针对AWS云平台进行了专项优化...

Read More
2025-05-19 talkingdev

[开源]OpenAlpha_Evolve:对标DeepMind AlphaEvolve的开源AI算法发现框架

OpenAlpha_Evolve是基于DeepMind最新发布的AlphaEvolve技术论文启发而开发的开源Python框架,旨在为研究者和开发者提供一个可自由访问的AI算法发现工具。AlphaEvolve作为DeepMind在自动化算法设计领域的重要突破,能...

Read More
2025-05-19 talkingdev

ParScale开源LLM扩展范式-训练与推理并行计算

人工智能领域迎来重大技术突破,开源项目ParScale通过创新性地在大型语言模型(LLM)的训练和推理阶段同时应用并行计算技术,成功建立了第三种LLM扩展范式。这一技术突破解决了传统序列计算模式在超大规模模型应用中...

Read More
  1. Prev Page
  2. 50
  3. 51
  4. 52
  5. Next Page