漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-07-22 talkingdev

Morphik.ai提出视觉文档检索新方法:用图像替代传统OCR解析

Morphik.ai公司创新性地提出了一种基于视觉的文档检索方法,该方法摒弃了传统的OCR(光学字符识别)和解析技术,转而采用文档页面的图像作为处理对象。通过将文档图像分割成小块,并利用视觉Transformer和语言模型,...

Read More
2025-07-15 talkingdev

[论文推荐]基于能量的Transformer模型:可扩展的学习与思考者

一项名为'基于能量的Transformer'(Energy-Based Transformers)的新型架构在机器学习领域取得突破性进展。该技术摒弃了传统的直接预测方式,转而采用学习验证函数来评估输入与候选输出之间的兼容性得分。这种创新架...

Read More
2025-07-10 talkingdev

实践教程:探索Gemma 3n与MatFormer的弹性推理能力

Google最新发布的Gemma 3n和MatFormer模型采用了创新的嵌套Transformer架构,通过Mix-n-Match技术实现弹性推理功能。该技术允许模型在运行时动态调整计算资源分配,显著提升推理效率并降低计算成本。本实践教程详细...

Read More
2025-07-08 talkingdev

[论文推荐] Mercury:基于扩散模型的超高速语言模型

近日,研究人员发布了新一代商业级大语言模型Mercury,该模型基于扩散模型技术,采用Transformer架构进行参数化,并能够并行预测多个token。报告重点介绍了Mercury Coder,这是首套专为编程应用设计的扩散大语言模型...

Read More
2025-07-03 talkingdev

[论文推荐]GNN与Transformer结合:新型神经网络架构预测器诞生

研究人员最新提出了一种创新的神经网络架构预测器,该预测器将图神经网络(GNN)与Transformer架构相结合,通过引入兄弟感知令牌混合器(sibling-aware token mixer)和双向图同构前馈网络(bidirectional graph iso...

Read More
2025-07-02 talkingdev

Sentence Transformers推出稀疏编码器微调功能,助力混合搜索与重排序

Sentence Transformers最新升级引入对稀疏嵌入模型训练的支持,这一技术突破特别适用于混合搜索和重排序场景。该博客详细解析了模型的核心组件与训练步骤,并重点介绍了基于SPLADE架构的现成模型。稀疏编码技术通过...

Read More
2025-06-30 talkingdev

vLLM V1架构解析:揭秘高效推理服务的核心技术

vLLM是一款开源的大语言模型推理引擎,近日其团队发布了全新的V1架构。本文深入剖析了vLLM V1架构如何通过OpenAI兼容API服务器和核心引擎高效处理推理请求,实现业界领先的文本生成性能。该架构优化了推理请求的处理...

Read More
2025-06-27 talkingdev

[论文推荐]Meta FAIR团队突破:无需归一化层的Transformer模型通过Dynamic Tanh实现同等性能

Meta旗下FAIR研究团队在arXiv最新论文中提出重大架构革新,通过名为Dynamic Tanh(DyT)的逐元素操作替代传统归一化层,使Transformer模型在保持性能的同时摆脱了对归一化层的依赖。这种S型曲线模拟技术能够自然复现...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page