Cloudflare近日公开了其内部AI模型部署平台Omni的技术细节,该平台通过轻量级隔离和内存超分配技术,实现在单个GPU上并行运行多个AI模型,显著提升边缘节点的计算资源利用率。Omni平台专为边缘计算环境设计,能够动...
Read MoreSim作为一款新兴的开源平台,专注于AI智能体工作流的构建与部署,其核心突破在于深度整合Ollama框架,支持完全离线的本地AI模型运行。这一特性不仅显著降低了企业使用AI技术的云端依赖和数据传输风险,更通过开源模...
Read More近日,一篇题为《Build your own Siri. Locally. On-Device. No Cloud.》的技术文章引发广泛关注。文章详细介绍了如何在本地设备上构建类似Siri的语音助手,完全脱离云端服务,从而确保用户隐私安全。这一技术方案利...
Read More近期,Hugging Face发布了一项名为AutoRound的后训练量化技术,该技术能够在保持模型性能和效率的同时,显著提升低比特量化模型的精度。这一突破性进展为边缘计算和移动端设备部署轻量级AI模型提供了新的可能性,解...
Read MoreNVIDIA在GitHub开源项目TensorRT-LLM中发布了名为Auto Deploy的创新工具,该技术实现了将PyTorch和Hugging Face模型转化为高效可部署格式的重大突破。通过TensorRT-LLM的优化编译器,模型推理速度可提升数倍,特别适...
Read More近日,Character AI在其大规模推理系统中成功减少了KV缓存的使用,并在一个简化版的GPT模型中实现了这一优化。通过这一技术改进,内存使用量减少了40%。这一优化不仅提升了系统的运行效率,还为未来更大规模的AI模型...
Read More英伟达在其开发者大会上宣布了新一代人工智能芯片及软件。这款名为Blackwell的AI图形处理器预计将于今年晚些时候出货。同时推出的NIM软件旨在简化AI的部署过程。英伟达力求通过NIM软件使得所有模型能够在其所有GPU上...
Read More训练吞吐量、提示处理吞吐量和生成吞吐量都有不同的成本,并且受到不同计算资源的瓶颈制约。因此,某些工作负载在Llama 70B上实际上比支付GPT-3.5更昂贵。这篇博客写得非常优雅,围绕模型部署考虑问题有一些非常好的...
Read More