漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-07-08 talkingdev

[论文推荐] Mercury:基于扩散模型的超高速语言模型

近日,研究人员发布了新一代商业级大语言模型Mercury,该模型基于扩散模型技术,采用Transformer架构进行参数化,并能够并行预测多个token。报告重点介绍了Mercury Coder,这是首套专为编程应用设计的扩散大语言模型...

Read More
2025-07-07 talkingdev

Sakana AI推出TreeQuest:多模型协作性能提升30%,开源工具助力企业AI升级

Sakana AI最新发布的TreeQuest技术通过创新的多模型协作框架(Multi-LLM AB-MCTS),实现了比单一大型语言模型(LLM)性能提升30%的突破。该技术采用自适应分支蒙特卡洛树搜索(Adaptive Branching Monte Carlo Tree...

Read More
2025-07-03 talkingdev

[论文推荐]GNN与Transformer结合:新型神经网络架构预测器诞生

研究人员最新提出了一种创新的神经网络架构预测器,该预测器将图神经网络(GNN)与Transformer架构相结合,通过引入兄弟感知令牌混合器(sibling-aware token mixer)和双向图同构前馈网络(bidirectional graph iso...

Read More
2025-07-02 talkingdev

Sentence Transformers推出稀疏编码器微调功能,助力混合搜索与重排序

Sentence Transformers最新升级引入对稀疏嵌入模型训练的支持,这一技术突破特别适用于混合搜索和重排序场景。该博客详细解析了模型的核心组件与训练步骤,并重点介绍了基于SPLADE架构的现成模型。稀疏编码技术通过...

Read More
2025-06-30 talkingdev

vLLM V1架构解析:揭秘高效推理服务的核心技术

vLLM是一款开源的大语言模型推理引擎,近日其团队发布了全新的V1架构。本文深入剖析了vLLM V1架构如何通过OpenAI兼容API服务器和核心引擎高效处理推理请求,实现业界领先的文本生成性能。该架构优化了推理请求的处理...

Read More
2025-06-27 talkingdev

[论文推荐]Meta FAIR团队突破:无需归一化层的Transformer模型通过Dynamic Tanh实现同等性能

Meta旗下FAIR研究团队在arXiv最新论文中提出重大架构革新,通过名为Dynamic Tanh(DyT)的逐元素操作替代传统归一化层,使Transformer模型在保持性能的同时摆脱了对归一化层的依赖。这种S型曲线模拟技术能够自然复现...

Read More
2025-06-25 talkingdev

「苦涩的教训」降临分词领域:BLT技术或将颠覆传统Tokenization

最新技术分析指出,当前自然语言处理中的分词技术(Tokenization)存在显著局限性,亟需被能够更好利用计算资源和数据的一般性方法所取代。本文深入剖析了分词技术的核心作用及其脆弱性,系统论证了淘汰该技术的必要性...

Read More
2025-06-24 talkingdev

SGLang集成Transformers后端:实现Hugging Face模型API与高性能引擎的无缝对接

近日,SGLang宣布成功集成Transformers后端技术,这一重大进展使开发者能够将Hugging Face的模型API与SGLang的高吞吐量、低延迟引擎相结合。该集成不仅显著提升了模型推理效率,还为自然语言处理(NLP)领域的实时应...

Read More
  1. Prev Page
  2. 6
  3. 7
  4. 8
  5. Next Page