漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-10-08 talkingdev

论文推荐|Less is More:微型网络实现递归推理

三星蒙特利尔AI实验室最新研究《Less is More: Recursive Reasoning with Tiny Networks》提出突破性方法,通过递归架构使参数量极少的神经网络具备复杂推理能力。该研究在arXiv公开的论文(编号2510.04871)中展示...

Read More
2025-10-01 talkingdev

智谱AI发布GLM-4.6大模型:200K上下文窗口,宣称编程推理能力逼近Claude Sonnet 4

智谱AI正式推出新一代开源权重模型GLM-4.6,该模型最突出的特性是支持高达200K tokens的上下文窗口,使其能够处理更长的文档和复杂任务链。官方宣称在编程与逻辑推理任务上已接近Anthropic公司发布的Claude Sonnet 4...

Read More
2025-08-15 talkingdev

揭秘大语言模型(LLM)的文本处理机制:Tokenization如何塑造AI世界观

大语言模型(LLM)通过Tokenization技术将文本分解为更小的单元,再转换为数值表示进行处理。这一过程涉及BPE(字节对编码)、WordPiece和SentencePiece等主流算法,直接影响模型的计算成本、上下文理解能力和多语言处理...

Read More
2025-07-28 talkingdev

阿里开源Qwen3-235B思维模型:数学竞赛92.3%准确率,推理效率超越传统密集模型

阿里巴巴最新开源的Qwen3-235B思维模型在技术领域取得重大突破,该模型在AIME25数学竞赛中达到92.3%的准确率,与OpenAI的O4-mini性能相当,并在编码基准测试中以74.1%的LiveCodeBench得分实现超越。这一2350亿参数的...

Read More
2025-07-10 talkingdev

[论文推荐]猫咪干扰大模型推理:无关信息触发推理模型错误率激增300%

最新研究发现,在数学问题中插入诸如'有趣的事实:猫一生大部分时间在睡觉'等无关短语,会导致大语言模型的错误应答率较基准水平飙升300%。这种与查询无关的对抗性触发现象具有跨模型规模的迁移性,且蒸馏版模型表现...

Read More
2025-06-17 talkingdev

CoRT-通过代码解释器增强大模型推理能力

GitHub最新开源项目CoRT(Code Interpreter Reasoning)提出了一种创新的方法,通过提示工程(hint engineering)对大语言模型进行后训练(post-train),使其能够将复杂计算任务智能分配给外部代码解释器执行。这一...

Read More
2025-06-17 talkingdev

[论文推荐]TreeRL:无需奖励模型的LLM训练新方法,数学与代码推理能力显著提升

TreeRL是一种创新的语言模型训练方法,通过结合on-policy树搜索和中间监督机制,实现了无需单独奖励模型的LLM训练。这一技术突破来自最新arXiv论文,相比传统的ChainRL方法,TreeRL在数学推理和代码生成等复杂任务上...

Read More
2025-05-22 talkingdev

谷歌推出Gemini Diffusion:首个采用扩散模型替代Transformer的大语言模型

谷歌最新发布的Gemini Diffusion标志着大语言模型架构的重大突破,这是该公司首次采用扩散模型(Diffusion Model)完全替代传统的Transformer架构。技术文档显示,该模型在保持与Gemini 2.0 Flash-Lite相当性能表现...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page