漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-06-03 talkingdev

[论文推荐]语言模型究竟记住了多少?揭秘记忆与泛化的边界

一项突破性研究通过对比模型在随机数据(无法泛化)和真实文本上的训练表现,开发出区分记忆与泛化的新方法。研究发现,模型会先记忆训练数据直至容量饱和,随后转向学习通用模式。以GPT类Transformer为例,每个参数...

Read More
2025-05-30 talkingdev

[开源]RenderFormer:无需场景训练的全局光照神经渲染器(GitHub项目)

微软研究院推出的RenderFormer是一项突破性的神经渲染技术,能够直接从三角形基础场景表征生成具有完整全局光照效果的逼真图像。该技术的核心优势在于其通用性——不同于传统神经渲染方法需要针对每个场景进行单独训练...

Read More
2025-05-24 talkingdev

[论文推荐]超越语义:无意义中间标记的惊人有效性

近期大型推理模型的显著成果常被归功于思维链(CoT)技术,尤其是通过从基础大语言模型(LLM)中采样CoT进行训练以发现新推理模式的过程。然而,一项最新研究对这种解释提出了质疑。该研究通过系统性地调查中间标记...

Read More
2025-05-22 talkingdev

谷歌推出Gemini Diffusion:首个采用扩散模型替代Transformer的大语言模型

谷歌最新发布的Gemini Diffusion标志着大语言模型架构的重大突破,这是该公司首次采用扩散模型(Diffusion Model)完全替代传统的Transformer架构。技术文档显示,该模型在保持与Gemini 2.0 Flash-Lite相当性能表现...

Read More
2025-05-16 talkingdev

[论文推荐]BLIP3-o:新型扩散Transformer架构在多模态基准测试中创下最优成绩

BLIP3-o作为一种新型的扩散Transformer架构,通过序列预训练方法实现了技术突破,并在多模态基准测试中取得了当前最优异的成绩。该研究不仅发布了完整的代码和权重文件,还附带了一个包含6万条指令的微调数据集,为...

Read More
2025-05-12 talkingdev

从零构建LLM系列第13篇:注意力机制的本质解析——注意力头其实很'笨'

知名开发者Giles Thomas在其技术博客中发表了《从零构建大型语言模型》系列的第13篇文章,深入探讨了Transformer架构中注意力机制的核心原理。文章通过逆向工程视角指出,传统认知中复杂的注意力头(attention heads...

Read More
2025-05-08 talkingdev

[论文推荐]新型初始化方法IDInit:通过保持主副层身份转换确保深度神经网络稳定收敛

近期arXiv平台发布的研究论文提出了一种名为IDInit的创新神经网络初始化技术,该方法通过在主层和子层结构中维持身份转换(identity transitions),有效解决了深度神经网络训练过程中的收敛稳定性难题。该技术突破...

Read More
2025-05-07 talkingdev

DDT开源:解耦扩散Transformer

近日,GitHub上开源了一个名为DDT(Decoupled Diffusion Transformer)的项目,该项目实现了一种结合Transformer和扩散模型的新型架构。该架构采用Encoder-Decoder设计,其中Decoder部分由扩散模型构成。初步实验表...

Read More
  1. Prev Page
  2. 5
  3. 6
  4. 7
  5. Next Page