漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-07-25 talkingdev

[开源]Qwen-MT:速度与智能并行的新一代翻译模型

Qwen-MT最新版本(qwen-mt-turbo)基于强大的Qwen3模型进行了重大升级,在翻译准确性和语言流畅度方面取得了显著提升。该模型通过利用数万亿的多语言和翻译标记,全面增强了其多语言理解和翻译能力。Qwen-MT的关键特...

Read More
2025-07-15 talkingdev

[论文推荐]基于能量的Transformer模型:可扩展的学习与思考者

一项名为'基于能量的Transformer'(Energy-Based Transformers)的新型架构在机器学习领域取得突破性进展。该技术摒弃了传统的直接预测方式,转而采用学习验证函数来评估输入与候选输出之间的兼容性得分。这种创新架...

Read More
2025-06-25 talkingdev

「苦涩的教训」降临分词领域:BLT技术或将颠覆传统Tokenization

最新技术分析指出,当前自然语言处理中的分词技术(Tokenization)存在显著局限性,亟需被能够更好利用计算资源和数据的一般性方法所取代。本文深入剖析了分词技术的核心作用及其脆弱性,系统论证了淘汰该技术的必要性...

Read More
2025-03-13 talkingdev

谷歌发布开源权重模型Gemma 3,性能接近Gemini 1.5 Pro

谷歌近日发布了Gemma 3模型的权重和技术报告,这一模型共有四种规模,其性能与Gemini 1.5 Pro相当。Gemma 3不仅在多语言处理上表现出色,能够理解超过140种语言,还被认为是接近当前最先进的密集模型之一。这一发布...

Read More
2025-03-12 talkingdev

[论文推荐] 广义离散扩散: 提升文本数据去噪效率与自校正能力

在最新的研究进展中,科学家提出了一种广义离散扩散方法,该方法显著改进了在文本等离散数据上的扩散过程。这一创新通过引入一种广义的去噪过程和略微改进的掩码方案,使得训练过程更加高效,并赋予了模型自我校正输...

Read More
2025-03-05 talkingdev

无损加速超长序列生成:开源框架助力100K tokens高效处理

近日,一项名为“无损加速超长序列生成”的技术框架在GitHub上开源,旨在显著提升超长序列生成的处理速度,同时保持目标模型的固有质量。该框架支持高达100K tokens的序列生成,适用于需要处理大规模数据的场景,如自...

Read More
2025-03-04 talkingdev

FlexPrefill推出动态稀疏注意力机制,提升LLM长序列处理效率

近日,FlexPrefill技术通过动态调整稀疏注意力模式和计算预算,显著提升了大型语言模型(LLM)的推理效率。该技术通过查询感知模式确定和累积注意力索引选择,优化了长序列处理的速度和准确性。FlexPrefill的核心在...

Read More
2025-02-25 talkingdev

Moonshot推出Block Attention混合算法,提升长上下文LLM性能

近日,Moonshot发布了一项名为Block Attention混合算法的创新技术,该算法在长上下文语言模型(LLM)中的应用表现卓越,被认为可与NSA相媲美。Block Attention混合算法通过优化注意力机制,显著提升了模型在处理长文...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page