OpenRouter平台近期发布了一份名为《AI现状》的实证研究报告,该研究标志着大语言模型(LLM)在实际应用中的一个关键转折点。报告指出,过去一年,该领域已从传统的单次模式生成,迅速转向多步骤的深思熟虑式推理。...
Read More检索增强生成(RAG)在理论上看似简单:检索相关文档,将其输入大语言模型,获得有据可依的答案。然而,在实践中,系统的成败取决于数十个关键决策。Algolia发布的白皮书全面剖析了构建高效RAG系统的完整技术管线。...
Read More近日,AI模型聚合平台OpenRouter发布了一份名为《State of AI》的深度实证研究报告。该研究基于对超过100万亿(100T)真实世界大语言模型交互令牌的分析,覆盖了不同任务类型、地理区域和时间跨度,为当前AI技术的实...
Read More英伟达在混合专家模型(Mixture-of-Experts,MoE)的扩展性能方面取得了重大突破。根据官方公布的数据,其最新的GB200 Blackwell NVL72服务器配置,在MoE AI模型上的性能表现相比上一代的Hopper HGX200架构实现了高...
Read More英伟达于近日公布了其最新一代GB200 Blackwell AI服务器的性能基准测试数据,结果显示,相较于前代H100/H200平台,该服务器在运行特定类型的混合专家模型时,性能提升高达10倍。此次测试重点针对中国AI公司月之暗面...
Read More据《麻省理工科技评论》报道,OpenAI正在测试一种新颖的方法,旨在让大语言模型(LLMs)能够主动“坦白”或“自我报告”其内部运作过程。这项研究探索如何训练模型不仅输出最终答案,还能生成“自白书”,详细描述其完成任...
Read More人工智能研究公司Perplexity近日开源了其最新研究成果“BrowseSafe”,这是一个专门为保护AI浏览器智能体(AI Browser Agents)而设计的实时内容检测模型与基准测试套件。在开放世界的网页环境中,AI智能体在执行网页...
Read More人工智能领域迎来重要开源进展。Mistral AI正式发布了其新一代Mistral 3系列模型,该系列包含两大技术路线:一是三款不同规模的密集模型(参数规模分别为140亿、80亿和30亿),二是备受瞩目的Mistral Large 3稀疏混...
Read More