漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-11-24 talkingdev

揭秘大语言模型推理机制:从输入到输出的技术全流程

大语言模型(LLM)作为基于Transformer架构的神经网络,通过并行分析完整序列并计算词语间的全局关联性,实现了自然语言处理的突破性进展。在推理过程中,模型首先将输入文本转化为数字化的词元嵌入向量,随后通过Tr...

Read More
2025-11-05 talkingdev

超越标准大语言模型:线性注意力混合架构与文本扩散模型引领新浪潮

当前最强大的开源大语言模型普遍采用自回归解码器架构的Transformer模型,但近年来涌现出多种创新架构。这些模型不仅关注计算效率的提升,更致力于突破性能瓶颈。文本扩散模型通过模拟去噪过程生成连贯文本,在创造...

Read More
2025-10-31 talkingdev

Kimi Linear技术报告发布:新型架构实现注意力机制效率突破

月之暗面(Moonshot AI)正式发布Kimi Linear技术报告,这项突破性架构通过创新设计实现了对传统全注意力机制的全面超越。该架构在保持同等性能水平下,将KV缓存使用量最高降低75%,在100万上下文长度场景中解码吞吐...

Read More
2025-10-13 talkingdev

嵌入技术为何如此廉价?解析AI成本背后的经济逻辑

嵌入技术作为现代检索增强生成系统的核心组件,正引发行业对AI基础设施成本结构的深度思考。最新技术分析显示,嵌入向量的生成过程主要依赖矩阵乘法和注意力机制等张量运算,其计算成本可通过浮点运算次数与硬件效率...

Read More
2025-10-12 talkingdev

论文推荐|Meta超智能实验室首篇论文意外突破:注意力机制新范式

Meta Superintelligence Labs于arXiv发布编号2509.01092的首篇论文,引发学术社区高度关注。该研究并未延续当前大模型参数规模竞赛的常规路径,而是聚焦于注意力机制的基础架构创新。论文提出了一种名为"动态稀疏注...

Read More
2025-10-10 talkingdev

论文推荐|BlockRank:生成式模型实现可扩展上下文排序,效率提升4.7倍

近日,信息检索领域迎来突破性进展——基于生成式模型的上下文排序(ICR)技术实现规模化应用。传统ICR方法通过将任务描述、候选文档和查询直接输入大语言模型(LLM)来识别相关文档,虽效果显著但存在计算效率瓶颈:...

Read More
2025-09-30 talkingdev

DeepSeek-V3.2-Exp发布:稀疏注意力机制突破长序列处理瓶颈

深度求索公司最新推出的DeepSeek-V3.2-Exp模型引入了创新的稀疏注意力机制,这一技术突破专门针对长上下文序列的训练和推理效率进行了深度优化。该机制通过智能选择关键注意力区域,显著降低了计算复杂度,使得模型...

Read More
2025-09-23 talkingdev

阿里发布通义千问Qwen3-Omni:开源多模态AI模型可处理文本、音频、图像及视频输入并生成文本与语音输出

阿里巴巴正式推出通义千问Qwen3-Omni系列开源人工智能模型,该模型实现了对文本、音频、图像和视频四类模态数据的统一处理能力,并能同步生成文本与语音输出。作为中国科技企业对抗美国科技巨头的重要技术突破,Qwen...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page