漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-05-14 talkingdev

HF推出Whisper极速转录服务,速度提升8倍

人工智能平台Hugging Face近日发布了一项突破性的语音转录服务——Whisper极速端点(Fast Whisper Endpoint)。这项创新技术通过优化模型架构和计算资源分配,实现了高达8倍的转录速度提升,为语音处理领域树立了新的...

Read More
2025-05-14 talkingdev

微软计划在Azure AI Foundry上托管马斯克的Grok AI模型

微软正计划在其Azure AI Foundry平台上托管埃隆·马斯克开发的Grok人工智能模型,这一举措可能将于5月19日举行的微软Build开发者大会上正式宣布。尽管微软与OpenAI存在潜在竞争关系,但这一战略部署凸显了微软意图通...

Read More
2025-05-03 talkingdev

[开源] BLAST:斯坦福大学发布高性能浏览器-LLM自动扩展服务引擎

斯坦福大学MAST实验室推出的BLAST项目,是一款专为浏览器增强型大语言模型(LLM)设计的高性能服务引擎。该技术旨在简化网页浏览AI代理的部署流程,显著提升响应速度并优化成本管理。其核心创新包括:1)自动并行化...

Read More
2025-04-28 talkingdev

Harvey AI构建弹性AI基础设施,实现高性能模型部署与管理

Harvey AI近日公开了其创新的AI基础设施架构,通过集中式Python库实现AI模型交互的统一管理,确保部署的可靠性与高性能。该架构采用动态负载均衡和实时监控技术,有效应对突发流量,同时支持无缝模型升级。系统还集...

Read More
2025-04-24 talkingdev

DeepSeek-V3/R1多节点部署实现高吞吐与低延迟

最新研究表明,采用混合专家模型(MoE)架构的DeepSeek-V3/R1在多节点GPU部署中展现出显著性能优势。该模型通过创新的资源分配机制,在绝大多数应用场景下同步实现了更高吞吐量和更低延迟的双重突破。技术分析显示,...

Read More
2025-04-17 talkingdev

Prime Intellect开源Intellect 2分布式训练框架,32B网络实现强化学习推理

人工智能研究机构Prime Intellect近日取得重大突破,成功通过完全分布式的方式训练了一个参数量高达320亿(32B)的神经网络模型,并创新性地结合强化学习技术提升模型的推理能力。值得关注的是,该团队已将其核心训...

Read More
2025-04-16 talkingdev

[开源]OpenAI开源其FP4与MoE核心算子至Triton语言项目

OpenAI近日将其内部研发的高性能计算核心——FP4(4-bit浮点)与MoE(混合专家)系统的关键算子通过GitHub PR开源至Triton语言项目。这一举动标志着AI基础设施领域的重要进展:FP4作为新兴的低精度计算格式可显著提升...

Read More
2025-03-20 talkingdev

Zoom的AI进化:从基础会议工具到基于LLMs和SLMs的智能生产力平台

Zoom正通过开发一套自主AI基础设施,将其业务从视频会议扩展到行动导向的工作流程。这一创新包括AI Companion 2.0,它提供了任务管理和文档创建等功能,以及通过新的AI Studio定制的AI代理。Zoom采用联合方法,将公...

Read More
  1. Prev Page
  2. 4
  3. 5
  4. 6
  5. Next Page