漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-02-26 talkingdev

Browser Use开源Web Agents,推动自动化浏览技术发展

近日,Browser Use (YC W25) 宣布推出其开源项目——Web Agents,旨在通过自动化技术提升用户在浏览器中的操作效率。该项目基于先进的LLM和agent技术,能够模拟人类在网页上的操作行为,如点击、滚动、填写表单等。通...

Read More
2025-02-25 talkingdev

Moonshot推出Block Attention混合算法,提升长上下文LLM性能

近日,Moonshot发布了一项名为Block Attention混合算法的创新技术,该算法在长上下文语言模型(LLM)中的应用表现卓越,被认为可与NSA相媲美。Block Attention混合算法通过优化注意力机制,显著提升了模型在处理长文...

Read More
2025-02-25 talkingdev

Light Thinker:压缩推理轨迹以节省上下文空间

近日,一项名为Light Thinker的技术引起了广泛关注。该技术旨在将冗长的推理轨迹压缩为更小、更紧凑的表示形式,从而节省上下文空间,同时仍能有效引导模型。这一创新不仅提升了模型的效率,还为处理复杂任务时的资...

Read More
2025-02-24 talkingdev

Triton实现Naive Sparse Attention,助力高效长上下文注意力算法

近日,DeepSeek NSA论文因其可扩展且高效的长上下文注意力算法引发了广泛关注。然而,该论文并未提供相关代码。为此,一项基于Triton的实现应运而生,该实现可无缝集成到任何PyTorch代码库中。Triton作为一种高效的G...

Read More
2025-02-14 talkingdev

MEAP技术开源:通过掩码增强自回归预测提升推理能力

近日,一项名为Mask-Enhanced Autoregressive Prediction(MEAP)的技术在GitHub上发布,该技术通过将Masked Language Modeling(MLM)整合到仅解码器的Transformer中,显著提升了信息检索任务的性能,同时保持了强...

Read More
2025-02-13 talkingdev

DeepScaleR:通过扩展RL训练,1.5B模型超越O1-Preview

近期,DeepScaleR的研究成果引起了广泛关注。该研究通过扩展强化学习(RL)训练,成功开发出一款1.5B参数的模型,其性能超越了O1-Preview。研究团队采用了一种独特的方法,即在RL训练过程中逐步增加上下文长度,从而...

Read More
2025-02-12 talkingdev

DeepMind提出新观点:Agency的测量需依赖参考框架

近日,DeepMind发布了一篇立场论文,探讨了如何衡量系统的“Agency”属性。论文指出,Agency的测量并非一个全局属性,而是依赖于特定的参考框架。这意味着,判断一个系统是否具有Agency,需要明确其所在的上下文和参考...

Read More
2025-02-10 talkingdev

Pika Labs推出Pikadditions:AI视频编辑工具实现无缝对象与角色嵌入

Pika Labs近日发布了其最新视频编辑工具Pikadditions,这是一款基于AI的视频到视频处理工具,能够无缝地将对象和角色嵌入到现有视频中,同时保持高度的真实感。该工具利用先进的embedding技术和LoRA模型,确保添加的...

Read More
  1. Prev Page
  2. 14
  3. 15
  4. 16
  5. Next Page