微软近日发布了Phi-4-reasoning系列变体,这一创新标志着小型语言模型(SLMs)在效率与复杂推理能力上的重大进展。Phi-4-reasoning通过算法优化和架构改进,在保持参数规模精简的同时,实现了接近大型语言模型(LLMs...
Read MoreGitHub项目Chain-of-Recursive-Thoughts提出了一种创新方法,通过让AI模型反复自我辩论来提升其思考深度。开发者PhialsBasement发现,这种方法虽然看似简单,但效果却出奇地好。该项目在Hacker News上引发了广泛讨论...
Read MoreFacebook研究团队近日在GitHub开源了MILS项目代码,其核心突破在于证明大型语言模型(LLMs)无需额外训练即可具备跨模态感知能力。该项目论文《LLMs can see and hear without any training》提出创新方法,通过重构...
Read More近日,自然语言处理领域迎来一项重要技术突破——MiniPLM框架正式发布。该框架创新性地提出了一种高效的小型语言模型(SLM)预训练方法,通过从大型语言模型(LLM)中提取知识进行蒸馏训练,显著提升了小模型的性能表...
Read More人工智能开源社区Hugging Face最新推出了一项创新性的演示项目,通过可视化界面实时展示大型语言模型(LLM)在交互过程中所消耗的能源量。这一技术突破首次将LLM运行时的能耗数据以直观方式呈现,为研究者和开发者提供...
Read More探讨了MCPs(模型上下文协议)在人工智能领域的应用前景。作者Charlie Graham深入研究了MCPs,构建了实验性的MCP服务器,并分析了其潜力和局限性。文章指出,MCPs有望将LLMs(大型语言模型)转变为能够执行实际任务...
Read More大型语言模型(LLM)在训练、评估或实施阶段常因被忽视的问题而表现不佳。图灵公司推出的5分钟快速评估工具,可帮助企业精准定位所处发展阶段,并明确后续优先事项。该工具提供三大核心价值:快速诊断组织的AI准备成熟...
Read More一项突破性研究提出通过预计算上下文相关量来降低大型语言模型(LLM)推理成本的新方法。该技术利用模型空闲时间预先处理可能用到的上下文信息,在用户查询到来时能直接调用预计算结果。实验数据显示,这种方法可节省...
Read More