漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2026-02-25 talkingdev

推理速度新标杆:Inception Labs发布Mercury 2,号称全球最快推理大语言模型

人工智能初创公司Inception Labs近日正式发布了其新一代大语言模型Mercury 2,并宣称该模型是“全球最快的推理语言模型”。其核心目标是让生产环境中的AI应用响应达到“瞬时”体验。Mercury 2的技术亮点在于其采用了创新...

Read More
2025-10-16 talkingdev

Anthropic发布Claude Haiku 4.5:小模型实现前沿性能突破

人工智能公司Anthropic正式推出新一代小型AI模型Claude Haiku 4.5,该模型在保持成本效益与运行速度优势的同时,实现了接近前沿大模型的性能表现。据官方披露,这款模型在多项基准测试中不仅超越了前代版本,更在计...

Read More
2025-06-20 talkingdev

LLM编译技术重大突破:单核化Megakernel实现低延迟推理

传统大型语言模型(LLM)系统普遍存在硬件利用率低下的问题,主要源于GPU内核的序列化启动及跨设备通信开销。一支研究团队创新性地开发出专用编译器,可将LLM推理过程自动编译为单一megakernel(超级内核),通过三大...

Read More
2025-06-20 talkingdev

将大语言模型编译为MegaKernel:低延迟推理的新路径

近日,一篇关于将大语言模型(LLMs)编译为单一MegaKernel以实现低延迟推理的技术文章引发广泛讨论。该技术通过优化编译器设计,将传统需要多个内核调用的LLM推理过程整合为高度融合的单一内核,显著减少了内核启动...

Read More
2025-06-17 talkingdev

Groq低延迟硬件接入Hugging Face推理平台,支持Llama 4和Qwen 32B等模型

Groq的低延迟硬件技术现已正式成为Hugging Face Hub及SDK的可选推理服务提供商,这一合作标志着AI基础设施领域的重大突破。通过集成Groq的专用处理器架构,开发者能够以服务器无感知(serverless)方式极速调用Llama...

Read More