阿里云最新推出的Aegaeon GPU池化技术系统在AI算力领域实现重大突破,通过创新的资源调度机制将大模型推理所需的英伟达GPU数量从1192片缩减至213片,降幅达82%。该系统目前已在阿里云模型市场完成beta测试,其核心技...
Read More微软近日在GitHub开源社区正式发布《Edge AI for Beginners》系列课程,该项目专为人工智能初学者设计,系统性地介绍了边缘计算与AI结合的完整技术栈。课程内容涵盖边缘AI基础架构、主流轻量级模型(如MobileNet、Ti...
Read MoreCloudflare近日公开了其内部AI模型部署平台Omni的技术细节,该平台通过轻量级隔离和内存超分配技术,实现在单个GPU上并行运行多个AI模型,显著提升边缘节点的计算资源利用率。Omni平台专为边缘计算环境设计,能够动...
Read MoreSim作为一款新兴的开源平台,专注于AI智能体工作流的构建与部署,其核心突破在于深度整合Ollama框架,支持完全离线的本地AI模型运行。这一特性不仅显著降低了企业使用AI技术的云端依赖和数据传输风险,更通过开源模...
Read More近日,一篇题为《Build your own Siri. Locally. On-Device. No Cloud.》的技术文章引发广泛关注。文章详细介绍了如何在本地设备上构建类似Siri的语音助手,完全脱离云端服务,从而确保用户隐私安全。这一技术方案利...
Read More近期,Hugging Face发布了一项名为AutoRound的后训练量化技术,该技术能够在保持模型性能和效率的同时,显著提升低比特量化模型的精度。这一突破性进展为边缘计算和移动端设备部署轻量级AI模型提供了新的可能性,解...
Read MoreNVIDIA在GitHub开源项目TensorRT-LLM中发布了名为Auto Deploy的创新工具,该技术实现了将PyTorch和Hugging Face模型转化为高效可部署格式的重大突破。通过TensorRT-LLM的优化编译器,模型推理速度可提升数倍,特别适...
Read More近日,Character AI在其大规模推理系统中成功减少了KV缓存的使用,并在一个简化版的GPT模型中实现了这一优化。通过这一技术改进,内存使用量减少了40%。这一优化不仅提升了系统的运行效率,还为未来更大规模的AI模型...
Read More