斯坦福大学研究人员提出的递归语言模型(RLMs)实现了突破性的推理架构创新。该模型通过REPL环境将输入上下文分解为可交互变量,实现了对无限长上下文的递归处理。在OOLONG基准测试中,基于GPT-5-mini构建的RLMs模型...
Read More来自大规模实验的研究团队发布了名为ScaleRL的创新框架,这是首个针对大型语言模型强化学习计算扩展的系统性研究方法。该研究通过超过40万GPU小时的实验数据,构建了可预测的S型计算-性能曲线,揭示了RL训练中算法改...
Read More最新研究表明,新一代大语言模型在字符级文本处理任务上取得显著突破。相比早期版本,GPT-5和Claude Sonnet 4.5等模型在字符计数、字符替换、密码解码等需要精细化文本操作的任务中表现出色。这一进步表明模型正在从...
Read More清华大学与斯坦福大学联合研究团队近日发布突破性研究成果ReasoningBank,该框架通过构建推理记忆系统解决长期困扰大语言模型智能体的历史经验复用难题。传统智能体在持续执行现实任务时,往往将每次交互视为独立事...
Read More近日,AI模型集成平台OpenRouter推出突破性技术方案,通过单一API接口整合GPT、Claude、Gemini、Llama、Mistral等500余个主流人工智能模型。该平台实现了请求级别的模型动态切换能力,支持根据实时价格、响应延迟等...
Read More近日,GitHub开源项目Jetski为模型上下文协议(MCP)服务器生态带来突破性解决方案。该平台通过零代码修改即可为MCP服务器注入企业级身份认证与深度分析能力,支持最新OAuth2.1标准和动态客户端注册(DCR)协议。其...
Read MoreAnthropic联合英国AI安全研究所与艾伦·图灵研究所的最新研究表明,大语言模型面临严重的数据投毒威胁。实验发现,仅需在训练数据中插入250份被篡改的文档(仅占训练总量的0.00016%),就能在参数规模从6亿到130亿不...
Read More近日,信息检索领域迎来突破性进展——基于生成式模型的上下文排序(ICR)技术实现规模化应用。传统ICR方法通过将任务描述、候选文档和查询直接输入大语言模型(LLM)来识别相关文档,虽效果显著但存在计算效率瓶颈:...
Read More