漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2026-04-19 talkingdev

NIST科学家实现突破:在微型硅基光路中制造“任意波长”激光器

美国国家标准与技术研究院(NIST)的科学家及其合作者近期取得了一项重大技术突破,他们开发出一种创新方法,能够在硅晶圆上沉积复杂图案的特殊材料,从而制造出用于光的集成光路,并实现了“任意波长”激光器的微型化...

Read More
2026-04-08 talkingdev

开源|TriAttention:基于三角函数的KV缓存压缩技术,助力大模型长上下文推理在内存受限GPU上本地部署

近日,GitHub上开源了一个名为TriAttention的项目,其核心是一种创新的KV(键值)缓存压缩技术。该技术旨在解决大语言模型在处理长上下文任务时,因KV缓存占用内存巨大而难以在消费级或内存受限的GPU上高效部署的行...

Read More
2026-04-06 talkingdev

论文推荐|简单自蒸馏显著提升大模型代码生成能力,无需额外验证器或强化学习

一项名为‘简单自蒸馏’(Simple Self-Distillation, SSD)的新方法为大语言模型的代码生成能力提升开辟了一条高效且成本低廉的路径。该方法的核心在于,仅利用模型自身在特定采样配置(如温度参数和截断策略)下生成...

Read More
2026-03-16 talkingdev

注意力残差:重新思考深度聚合,Moonshot AI提出新架构提升模型性能

在深度学习领域,残差连接(Residual Connections)是构建深层神经网络的关键技术,它通过将浅层特征直接传递到深层,有效缓解了梯度消失问题。然而,传统的残差连接通常采用固定、均匀的累加方式,这可能限制了模型...

Read More
2026-03-06 talkingdev

Anthropic发布新框架:量化AI对劳动力市场的冲击与早期证据

人工智能安全与研究公司Anthropic近期发布了一项重要研究,提出了一种全新的框架,旨在系统性地理解和衡量AI技术对劳动力市场的实际影响。该研究的目标是建立一个可重复、可验证的测量方法,以追踪AI如何具体影响就...

Read More
2026-02-03 talkingdev

论文推荐|NVIDIA提出“金鹅”方法:从未经验证的网络文本中无限合成RLVR任务,突破大模型强化学习瓶颈

近日,NVIDIA研究团队提出了一种名为“金鹅”(Golden Goose)的创新方法,旨在解决大语言模型(LLM)强化学习领域的一个关键瓶颈。当前,基于可验证奖励的强化学习(RLVR)是解锁LLM复杂推理能力的重要基石,但其发展...

Read More
2026-01-28 talkingdev

AI2发布开源编程智能体SERA:低成本实现顶级性能,适配私有代码库

艾伦人工智能研究所(AI2)近日正式发布了其开源编程智能体系列的首个成员——SERA,并公开了完整的训练方案。这一突破性进展标志着构建适用于私有或内部代码库的编程智能体变得既经济又实用。SERA的核心价值在于,它...

Read More
2026-01-14 talkingdev

开源|CaRR:为深度搜索智能体引入引文感知的规则奖励,提升强化学习鲁棒性

清华大学知识工程实验室(THUDM)在GitHub开源了项目CaRR,其对应论文《Chaining the Evidence: Robust Reinforcement Learning for Deep Search Agents with Citation-Aware Rubric Rewards》提出了一种创新方法,...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page