惠普AI Studio推出创新技术方案,通过模型蒸馏技术将前沿大语言模型DeepSeek-R1的推理能力压缩至可在本地设备运行的轻量级版本。该技术突破实现了大模型从云端到本地的迁移,用户可通过Ollama框架进行本地推理部署,...
Read More近日,自然语言处理领域迎来一项重要技术突破——MiniPLM框架正式发布。该框架创新性地提出了一种高效的小型语言模型(SLM)预训练方法,通过从大型语言模型(LLM)中提取知识进行蒸馏训练,显著提升了小模型的性能表...
Read More人工智能开源社区Hugging Face最新推出了一项创新性的演示项目,通过可视化界面实时展示大型语言模型(LLM)在交互过程中所消耗的能源量。这一技术突破首次将LLM运行时的能耗数据以直观方式呈现,为研究者和开发者提供...
Read More近日,科技社区热议的π0.5(Pi-0.5)模型在开放世界泛化能力上取得重要进展。该视觉语言模型(VLA)通过创新架构设计,在未见过的新场景中展现出超越同类模型的零样本学习能力。技术博客透露,其核心突破在于动态多...
Read More谷歌最新宣布,Gemini Advanced用户即日起可利用Veo 2模型实现文本到视频的AI生成能力。这项突破性技术可将自然语言描述直接转化为1080P分辨率、具有电影质感的动态影像,标志着多模态AI在视频创作领域的重大进展。V...
Read MoreMeta旗下Facebook Research团队推出的ZeroSumEval Benchmark在GitHub开源,这一动态评估框架通过竞争性多智能体模拟,为大语言模型(LLM)在推理、知识储备和规划任务等核心能力维度建立了全新测试范式。该框架创新...
Read More微软DeepSpeed团队在GitHub开源了DeepCompile项目,通过引入编译技术显著提升分布式训练性能。该项目针对训练过程中的瓶颈操作进行深度优化,采用改进版的torch compile实现算子融合与代码生成,实测可使关键操作获...
Read MoreHugging Face平台最新发布的SIFT-50M(Speech Instruction Fine-Tuning)数据集,是一个包含5000万样本的大规模语音指令微调数据集,专为语音-文本大语言模型(LLMs)的指令微调和预训练而设计。该数据集基于公开可...
Read More