漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-02-27 talkingdev

本地模型与云端模型协同工作,成本降低83%

Hazy Research的最新研究表明,通过Ollama使用本地模型,并结合长上下文云端模型作为协调器,可以在仅花费17%成本的情况下,实现97%的任务性能。这一发现为企业在AI部署中提供了更高效、更经济的解决方案。本地模型...

Read More
2025-02-26 talkingdev

Vision Language Models或将取代OCR技术

随着Vision Language Models(VLMs)的快速发展,传统的光学字符识别(OCR)技术正面临被取代的可能。VLMs结合了计算机视觉和自然语言处理的能力,能够更准确地理解和解析图像中的文本内容。与OCR相比,VLMs不仅能识...

Read More
2025-02-25 talkingdev

Browser Use开源Web Agents,推动自动化浏览技术发展

近日,Browser Use (YC W25) 宣布推出其开源项目——Web Agents,旨在通过自动化技术提升用户在浏览器中的操作效率。该项目基于先进的LLM和agent技术,能够模拟人类在网页上的操作行为,如点击、滚动、填写表单等。通...

Read More
2025-02-25 talkingdev

Moonshot推出Block Attention混合算法,提升长上下文LLM性能

近日,Moonshot发布了一项名为Block Attention混合算法的创新技术,该算法在长上下文语言模型(LLM)中的应用表现卓越,被认为可与NSA相媲美。Block Attention混合算法通过优化注意力机制,显著提升了模型在处理长文...

Read More
2025-02-25 talkingdev

Light Thinker:压缩推理轨迹以节省上下文空间

近日,一项名为Light Thinker的技术引起了广泛关注。该技术旨在将冗长的推理轨迹压缩为更小、更紧凑的表示形式,从而节省上下文空间,同时仍能有效引导模型。这一创新不仅提升了模型的效率,还为处理复杂任务时的资...

Read More
2025-02-24 talkingdev

Triton实现Naive Sparse Attention,助力高效长上下文注意力算法

近日,DeepSeek NSA论文因其可扩展且高效的长上下文注意力算法引发了广泛关注。然而,该论文并未提供相关代码。为此,一项基于Triton的实现应运而生,该实现可无缝集成到任何PyTorch代码库中。Triton作为一种高效的G...

Read More
2025-02-14 talkingdev

MEAP技术开源:通过掩码增强自回归预测提升推理能力

近日,一项名为Mask-Enhanced Autoregressive Prediction(MEAP)的技术在GitHub上发布,该技术通过将Masked Language Modeling(MLM)整合到仅解码器的Transformer中,显著提升了信息检索任务的性能,同时保持了强...

Read More
2025-02-13 talkingdev

DeepScaleR:通过扩展RL训练,1.5B模型超越O1-Preview

近期,DeepScaleR的研究成果引起了广泛关注。该研究通过扩展强化学习(RL)训练,成功开发出一款1.5B参数的模型,其性能超越了O1-Preview。研究团队采用了一种独特的方法,即在RL训练过程中逐步增加上下文长度,从而...

Read More
  1. Prev Page
  2. 6
  3. 7
  4. 8
  5. Next Page