漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-07-19 talkingdev

AI资本支出规模已影响经济统计数据,堪比铁路建设热潮

最新分析指出,人工智能领域的资本支出(AI Capex)已达到前所未有的规模,其经济影响已开始反映在宏观统计数据中。据Paul Kedrosky的研究显示,当前AI基础设施投资对GDP的贡献率正接近19世纪铁路建设热潮时期的水平...

Read More
2025-07-16 talkingdev

开源Goose AI代理:支持任意LLM后端,覆盖全流程开发

Block公司近日在GitHub开源了Goose AI代理项目,这是一个突破性的开源AI开发工具。与传统代码建议工具不同,Goose作为可扩展的AI代理,支持包括本地模型在内的任意大型语言模型(LLM)作为后端,提供桌面和命令行(C...

Read More
2025-07-03 talkingdev

PyTorch DCP采用模块化压缩技术将检查点体积缩减22%

PyTorch工程师团队通过分布式检查点(DCP)中的模块化压缩技术,成功将检查点文件体积减少22%。这项突破性优化显著降低了分布式训练过程中的存储占用和带宽消耗。文章详细阐述了该技术的集成步骤和关键设计选择,包...

Read More
2025-06-30 talkingdev

vLLM V1架构解析:揭秘高效推理服务的核心技术

vLLM是一款开源的大语言模型推理引擎,近日其团队发布了全新的V1架构。本文深入剖析了vLLM V1架构如何通过OpenAI兼容API服务器和核心引擎高效处理推理请求,实现业界领先的文本生成性能。该架构优化了推理请求的处理...

Read More
2025-06-20 talkingdev

语言模型推理经济学:为何当前扩展方法遭遇瓶颈

首份关于大语言模型(LLM)服务经济学的综合模型揭示,随着AI公司竞相部署高token消耗的推理模型和智能体,当前扩展推理能力的方法比预期更快遭遇瓶颈。研究发现,网络延迟而非带宽成为主要瓶颈,阻碍了公司通过简单...

Read More
2025-06-19 talkingdev

DeepNVMe重大升级:扩展模型检查点与推理支持,引入PCIe Gen5 NVMe扩展能力

DeepNVMe最新版本实现了多项突破性升级:首先扩展了对模型检查点(checkpointing)和推理工作负载的支持,使深度学习框架能更高效地管理训练中间状态;其次新增PCIe Gen5 NVMe的扩展能力,显著提升存储带宽以应对大...

Read More
2025-06-17 talkingdev

Groq低延迟硬件接入Hugging Face推理平台,支持Llama 4和Qwen 32B等模型

Groq的低延迟硬件技术现已正式成为Hugging Face Hub及SDK的可选推理服务提供商,这一合作标志着AI基础设施领域的重大突破。通过集成Groq的专用处理器架构,开发者能够以服务器无感知(serverless)方式极速调用Llama...

Read More
2025-06-17 talkingdev

OpenAI将Prompts升级为API原语,开发者可集中管理提示词

OpenAI宣布将Prompts(提示词)正式升级为API原语,这一重大更新将允许开发者在Playground、API、Evals和Stored Completions等平台间实现提示词的集中管理、版本控制和优化。开发者现在可以预先配置提示词的工具、模...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page