漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-08-29 talkingdev

Chrome团队构建浏览器内置AI API:本地运行模型的新标准

谷歌Chrome浏览器AI团队正在开发突破性的Web API技术,允许用户在浏览器本地直接运行AI模型,无需依赖云端服务器。这项技术旨在建立跨浏览器的标准化人工智能能力,通过客户端JavaScript接口实现设备端模型推理。团...

Read More
2025-06-20 talkingdev

LLM编译技术重大突破:单核化Megakernel实现低延迟推理

传统大型语言模型(LLM)系统普遍存在硬件利用率低下的问题,主要源于GPU内核的序列化启动及跨设备通信开销。一支研究团队创新性地开发出专用编译器,可将LLM推理过程自动编译为单一megakernel(超级内核),通过三大...

Read More
2025-06-20 talkingdev

将大语言模型编译为MegaKernel:低延迟推理的新路径

近日,一篇关于将大语言模型(LLMs)编译为单一MegaKernel以实现低延迟推理的技术文章引发广泛讨论。该技术通过优化编译器设计,将传统需要多个内核调用的LLM推理过程整合为高度融合的单一内核,显著减少了内核启动...

Read More
2025-06-17 talkingdev

Groq低延迟硬件接入Hugging Face推理平台,支持Llama 4和Qwen 32B等模型

Groq的低延迟硬件技术现已正式成为Hugging Face Hub及SDK的可选推理服务提供商,这一合作标志着AI基础设施领域的重大突破。通过集成Groq的专用处理器架构,开发者能够以服务器无感知(serverless)方式极速调用Llama...

Read More