OpenAI近日将其内部研发的高性能计算核心——FP4(4-bit浮点)与MoE(混合专家)系统的关键算子通过GitHub PR开源至Triton语言项目。这一举动标志着AI基础设施领域的重要进展:FP4作为新兴的低精度计算格式可显著提升...
Read More近日,轻量级视觉语言模型MoonDream迎来2.0版本重大更新。这款仅含20亿参数的VLM(Vision-Language Model)在最新测试中展现出惊人实力,其性能不仅超越多个同量级开源模型,甚至在部分基准测试中优于参数规模更大的...
Read More谷歌云在Next 25大会上宣布Vertex AI迎来重大更新,其视频、图像、语音及音乐生成模型获得增强功能,显著提升企业创意工作流的智能化水平。谷歌AI推出面向企业的专用AI代理解决方案,通过优化任务自动化流程实现生产...
Read More谷歌宣布其新一代多模态大模型Gemini 2.5 Pro正式进入公测阶段,开发者现可通过Google AI Studio的Gemini API进行体验,而企业级平台Vertex AI的支持也即将上线。作为Gemini系列的最强版本,2.5 Pro在跨模态理解、长...
Read MoreUnsloth团队针对DeepSeek最新R1模型成功开发出创新量化方案,其核心突破在于将混合专家(MoE)层压缩至惊人的1.58bit,同时通过动态量化技术保持其他模块在4-6bit精度。研究发现,模型Tokenizer的特殊结构为量化带来...
Read MoreMetaLoRA通过引入元学习原理的动态参数生成机制,显著提升了基于LoRA(Low-Rank Adaptation)的微调策略的灵活性和任务感知能力。这一技术突破解决了传统LoRA方法在跨任务适应性上的局限性,通过动态生成低秩矩阵参...
Read More腾讯ARC实验室最新发布的SEED-Bench-R1基准测试,为多模态大语言模型(MLLM)在复杂视频任务中的表现提供了系统评估框架。该研究重点关注强化学习(RL)和监督微调(SFT)等后训练方法,揭示了RL在视觉感知任务和数...
Read More最新研究揭示了现有防御有害微调攻击(Harmful Fine-Tuning Attacks)方法的脆弱性,并提出了一种名为Panacea的创新解决方案。该方案采用自适应扰动技术,在保持模型微调性能的同时有效维护模型安全性。这一突破性进...
Read More