三星蒙特利尔AI实验室最新研究《Less is More: Recursive Reasoning with Tiny Networks》提出突破性方法,通过递归架构使参数量极少的神经网络具备复杂推理能力。该研究在arXiv公开的论文(编号2510.04871)中展示...
Read More智谱AI正式推出新一代开源权重模型GLM-4.6,该模型最突出的特性是支持高达200K tokens的上下文窗口,使其能够处理更长的文档和复杂任务链。官方宣称在编程与逻辑推理任务上已接近Anthropic公司发布的Claude Sonnet 4...
Read More大语言模型(LLM)通过Tokenization技术将文本分解为更小的单元,再转换为数值表示进行处理。这一过程涉及BPE(字节对编码)、WordPiece和SentencePiece等主流算法,直接影响模型的计算成本、上下文理解能力和多语言处理...
Read More阿里巴巴最新开源的Qwen3-235B思维模型在技术领域取得重大突破,该模型在AIME25数学竞赛中达到92.3%的准确率,与OpenAI的O4-mini性能相当,并在编码基准测试中以74.1%的LiveCodeBench得分实现超越。这一2350亿参数的...
Read More最新研究发现,在数学问题中插入诸如'有趣的事实:猫一生大部分时间在睡觉'等无关短语,会导致大语言模型的错误应答率较基准水平飙升300%。这种与查询无关的对抗性触发现象具有跨模型规模的迁移性,且蒸馏版模型表现...
Read MoreGitHub最新开源项目CoRT(Code Interpreter Reasoning)提出了一种创新的方法,通过提示工程(hint engineering)对大语言模型进行后训练(post-train),使其能够将复杂计算任务智能分配给外部代码解释器执行。这一...
Read MoreTreeRL是一种创新的语言模型训练方法,通过结合on-policy树搜索和中间监督机制,实现了无需单独奖励模型的LLM训练。这一技术突破来自最新arXiv论文,相比传统的ChainRL方法,TreeRL在数学推理和代码生成等复杂任务上...
Read More谷歌最新发布的Gemini Diffusion标志着大语言模型架构的重大突破,这是该公司首次采用扩散模型(Diffusion Model)完全替代传统的Transformer架构。技术文档显示,该模型在保持与Gemini 2.0 Flash-Lite相当性能表现...
Read More