OpenAI宣布将于今夏发布一款可自由下载的开源AI系统,旨在性能上超越Meta、DeepSeek等竞争对手。该模型拟引入革命性的'任务转交'功能,当遭遇复杂查询时可无缝衔接云端部署的更大规模OpenAI模型进行联合计算。这一技...
Read More本文系统介绍了如何结合检索增强生成(RAG)技术与大语言模型运维(LLMOps)构建高仿真智能体的技术路径。作为当前AI领域的前沿方向,该方案通过实时监控智能体的决策过程、知识检索准确性和生成质量等关键指标,显...
Read More艾伦人工智能研究所(Allen Institute for AI)近日发布了OLMo-2-1B语言模型,这是一款参数规模为1B的小型开源模型。该项目的突破性意义在于其完全透明的训练范式:研究团队不仅公开了模型权重,还完整披露了训练数...
Read MoreDeepSeek公司近日宣布将于2025年正式推出新一代人工智能模型DeepSeek-R2,这一重大进展标志着大语言模型技术进入全新发展阶段。根据官方技术博客透露,R2模型将采用创新的混合架构设计,整合了稀疏专家模型(MoE)与密...
Read More开发者Anders和Tom近日在Hacker News上宣布推出Magnitude,一个完全开源的、基于视觉大模型(VLM)的端到端Web应用测试框架。该框架旨在解决传统浏览器代理测试工具速度慢、成本高且结果不一致的问题。Magnitude采用...
Read More来自arXiv的最新研究论文提出了一种名为DFloat11的动态长度浮点无损压缩框架,通过创新性地利用LLM权重中BFloat16格式的低熵特性,实现了30%的模型体积缩减,同时保持输出结果与原始模型的比特级一致性。该技术采用...
Read More惠普AI Studio推出创新技术方案,通过模型蒸馏技术将前沿大语言模型DeepSeek-R1的推理能力压缩至可在本地设备运行的轻量级版本。该技术突破实现了大模型从云端到本地的迁移,用户可通过Ollama框架进行本地推理部署,...
Read More近日,自然语言处理领域迎来一项重要技术突破——MiniPLM框架正式发布。该框架创新性地提出了一种高效的小型语言模型(SLM)预训练方法,通过从大型语言模型(LLM)中提取知识进行蒸馏训练,显著提升了小模型的性能表...
Read More