谷歌近日发布了具有重大意义的新开源权重模型Gemma 3n,该模型采用多模态设计,专为设备端优化。Gemma 3n能够接受文本、图像和音频作为输入,展现了强大的跨模态处理能力。为推广该模型,谷歌与AMD、Axolotl、Docker...
Read More随着AI技术的快速普及,新的研究表明大多数安全防护措施仍处于追赶阶段。这份由Wiz.io发布的研究报告深入剖析了企业如何在云环境中保障AI安全,揭示了AI应用与安全防护之间的差距。报告显示,AI的采用速度已远超安全...
Read More传统大型语言模型(LLM)系统普遍存在硬件利用率低下的问题,主要源于GPU内核的序列化启动及跨设备通信开销。一支研究团队创新性地开发出专用编译器,可将LLM推理过程自动编译为单一megakernel(超级内核),通过三大...
Read More近日,一篇关于将大语言模型(LLMs)编译为单一MegaKernel以实现低延迟推理的技术文章引发广泛讨论。该技术通过优化编译器设计,将传统需要多个内核调用的LLM推理过程整合为高度融合的单一内核,显著减少了内核启动...
Read More6月25日,知名分析机构451 Research与AI企业Glean将联合举办线上研讨会,深度探讨企业级AI向智能体(Agentic)转型的技术路径与市场机遇。本次会议将发布基于全球500强企业的AI应用调研数据,揭示智能体技术在自动化...
Read More最新研究发现,AI智能体在执行长时间任务时的成功率遵循一个惊人的简单数学模型——每分钟的失败率保持恒定,这意味着任务成功率会随任务时长呈指数级下降。该研究通过数学建模揭示,当人类完成相同任务需要的时间每增...
Read MoreKapa.ai最新发布的文档《Writing documentation for AI: best practices》详细探讨了为AI系统撰写高效文档的核心原则,尤其针对检索增强生成(RAG)技术栈的优化需求。文章指出,RAG系统的性能高度依赖知识库文档的...
Read MoreGroq的低延迟硬件技术现已正式成为Hugging Face Hub及SDK的可选推理服务提供商,这一合作标志着AI基础设施领域的重大突破。通过集成Groq的专用处理器架构,开发者能够以服务器无感知(serverless)方式极速调用Llama...
Read More