漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-07-22 talkingdev

Gemini Deep Think 模型在国际数学奥林匹克竞赛中达到金牌标准

继OpenAI在周六宣布其模型获得金牌后,Google也宣布其Gemini Deep Think模型在国际数学奥林匹克竞赛(IMO)中解决了六道题目中的五道,并获得了赛事官方认证的金牌标准。这一突破标志着Google在人工智能领域的重大进...

Read More
2025-07-14 talkingdev

《RL万亿级扩展路线图:解锁AI大模型从互联网推理的潜力》

近期,一篇关于强化学习(RL)如何扩展至惊人10^26 FLOPs(每秒浮点运算次数)的探讨引起了业界广泛关注。文章指出,强化学习被视为构建前沿AI模型,尤其是大型语言模型(LLMs)的下一个核心训练技术。传统观点认为...

Read More
2025-07-10 talkingdev

[论文推荐]猫咪干扰大模型推理:无关信息触发推理模型错误率激增300%

最新研究发现,在数学问题中插入诸如'有趣的事实:猫一生大部分时间在睡觉'等无关短语,会导致大语言模型的错误应答率较基准水平飙升300%。这种与查询无关的对抗性触发现象具有跨模型规模的迁移性,且蒸馏版模型表现...

Read More
2025-07-02 talkingdev

[论文推荐]将大型C++数学软件包迁移至C++20模块系统的实践与思考

数学软件传统上以相互依赖的"包"形式构建,其中大量采用C++编写,其接口通过头文件(#include)方式暴露给下游用户。这种从C语言继承的接口导出方式存在笨拙、不可靠且效率低下的问题。为此,C++20引入了"模块"系统...

Read More
2025-06-26 talkingdev

高效推理新方法-Continuous Concise Hints技术开源

近期GitHub上开源的ConciseHint项目提出了一种创新的大语言模型推理优化技术。该技术通过在生成过程中注入学习或手工设计的简洁提示,能够在保持模型性能的前提下显著提升推理过程的简洁性。这一突破性方法解决了当...

Read More
2025-06-24 talkingdev

小模型逆袭!7B参数模型通过强化学习教师机制超越671B大模型

一项突破性研究展示了小模型通过创新训练方法战胜巨型模型的可能。日本Sakana.AI团队开发的"教师模型"采用全新范式——这些模型不需要自行解决问题,而是被直接提供问题和正确答案,专注于生成清晰易懂的解决方案解释...

Read More
2025-06-24 talkingdev

[论文推荐]SeLoRA技术突破:通过稀疏谱子空间重构削减LoRA冗余参数

来自arXiv的最新研究论文提出SeLoRA(Spectral-efficient Low-Rank Adaptation)技术,通过将LoRA适配器重新参数化为稀疏谱子空间,在保持模型表达能力的前提下显著减少冗余参数。该技术在多模态任务测试中表现突出...

Read More
2025-06-24 talkingdev

强化学习新突破:AI通过试错与创新方法实现高效训练

强化学习(RL)作为一种让AI模型通过试错而非简单模仿人类示例进行学习的技术,正展现出其在复杂任务处理中的独特优势。最新行业动态显示,科技公司正在采用两种创新方法大幅扩展训练数据规模:一是利用AI模型相互评...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page