漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-04-18 talkingdev

[论文推荐]JudgeLRM:基于强化学习训练的推理大模型在评判任务中超越GPT-4

斯坦福大学研究团队最新推出的JudgeLRM模型家族,通过强化学习训练机制在复杂推理评判任务中展现出突破性性能。该技术采用与标准监督微调(SFT)截然不同的训练范式,在需要深度逻辑分析的评估场景下,其综合表现显...

Read More
2025-04-17 talkingdev

深度解析DeepSeek分布式文件系统的技术架构与优势

DeepSeek近期推出的分布式文件系统(DFS)凭借其高性能、高可靠性和可扩展性,成为业界关注的焦点。该系统采用先进的分布式存储架构,支持海量数据的高效管理与快速访问,特别适用于AI训练、大数据分析等场景。DeepS...

Read More
2025-04-14 talkingdev

DeepSeek推理引擎开源之路正式开启

近日,DeepSeek宣布将逐步推进其推理引擎的开源计划,这一举措旨在推动AI技术的普及与创新。DeepSeek推理引擎以其高效的模型推理能力和低延迟特性,在业界广受关注。开源后,开发者将能够自由访问和优化该引擎,进一...

Read More
2025-04-07 talkingdev

DeepSeek R1模型1.58bit量化新突破:MoE层实现超低比特压缩

Unsloth团队针对DeepSeek最新R1模型成功开发出创新量化方案,其核心突破在于将混合专家(MoE)层压缩至惊人的1.58bit,同时通过动态量化技术保持其他模块在4-6bit精度。研究发现,模型Tokenizer的特殊结构为量化带来...

Read More
2025-04-07 talkingdev

[开源] Nano Aha Moment:单文件单GPU实现DeepSeek R1-Zero风格全参数调优库

McGill-NLP实验室推出的Nano Aha Moment项目在GitHub开源,该项目通过极简架构实现高性能深度学习训练——仅需单个文件和一块GPU即可完成从零开始的完整参数调优,并复现了DeepSeek R1-Zero模型的训练范式。这一突破性...

Read More
2025-04-07 talkingdev

[论文推荐]DeepSeek提出推理时缩放技术,革新通用奖励模型训练范式

DeepSeek最新研究论文《Inference-Time Scaling for Generalist Reward Modeling》提出了一种创新方法,通过推理时缩放技术优化奖励模型,从而引导更强大的推理模型生成。该技术标志着这家中国初创公司的一项战略布...

Read More
2025-04-04 talkingdev

[开源]Perplexity发布Pplx Cuda Kernels,MoE性能超越DeepSeek

人工智能领域迎来重要技术突破,Perplexity公司近日在GitHub开源了其混合专家系统(MoE)的核心计算库Pplx Cuda Kernels。这套基于CUDA的高性能计算内核在实际测试中展现出显著优势,在大规模运算场景下性能超越知名AI...

Read More
2025-04-03 talkingdev

[开源] DeepSite开源画布:基于DeepSeek的实时编码创作平台登陆Hugging Face Hub

DeepSite是由DeepSeek提供技术支持的创新型开源画布工具,专为‘氛围编码(vibe coding)’场景设计,其革命性在于能实时更新应用程序——当系统编写代码的同时,用户可即时看到应用界面的动态变化。该平台通过深度集成A...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page