漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-10-05 talkingdev

开源|ProofOfThought:基于Z3定理证明的LLM神经符号推理框架

NeurIPS 2024系统推理研讨会最新收录的研究项目ProofOfThought提出了一种突破性的神经符号编程合成方法,通过结合大型语言模型的语义理解能力与Z3定理证明器的形式化验证机制,实现了兼具鲁棒性与可解释性的自动推理...

Read More
2025-10-01 talkingdev

Anthropic提出AI代理上下文工程新范式:突破有限上下文窗口的智能管理策略

人工智能安全研究公司Anthropic最新发布了关于AI代理上下文工程的技术实践报告。该研究聚焦于在有限上下文窗口内优化令牌分配的核心挑战,提出通过系统指令、工具配置、数据筛选和对话历史的精准协同,实现推理效果...

Read More
2025-09-25 talkingdev

WebAssembly赋能边缘计算:Wasmer Edge全面支持Python,性能超越主流云服务

WebAssembly运行时环境Wasmer近日宣布其边缘计算平台Wasmer Edge已实现对Python的完整支持。通过将Python解释器编译为WebAssembly模块,开发者可直接在边缘节点运行FastAPI、Django和LangChain等主流Python框架而无...

Read More
2025-09-10 talkingdev

Firefox本地AI运行时性能大幅提升,推理速度最高加快10倍

Mozilla近日宣布对Firefox浏览器的AI运行时进行重大架构升级,将原本基于WebAssembly的“onnxruntime-web”替换为直接集成到浏览器底层的原生C++ ONNX Runtime。这一技术革新使Firefox的本地AI功能获得2-10倍的推理性...

Read More
2025-09-04 talkingdev

AI生成Metal内核将PyTorch在苹果设备推理速度提升87%

研究人员通过前沿AI技术实现了重大突破:利用自主生成的Metal GPU内核,将PyTorch在苹果设备上的推理速度平均提升1.87倍。这项研究测试了215个PyTorch模型,其中部分工作负载甚至达到基线性能的数百倍加速。该技术采...

Read More
2025-08-28 talkingdev

Cloudflare如何用更少GPU运行更多AI模型:Omni平台技术深探

Cloudflare近日公开了其内部AI模型部署平台Omni的技术细节,该平台通过轻量级隔离和内存超分配技术,实现在单个GPU上并行运行多个AI模型,显著提升边缘节点的计算资源利用率。Omni平台专为边缘计算环境设计,能够动...

Read More
2025-07-16 talkingdev

Uzu:专为苹果芯片优化的高性能AI模型推理引擎

GitHub开源项目Uzu为Apple Silicon平台带来突破性AI推理解决方案。该项目采用混合GPU/MPSGraph架构,显著提升计算效率,同时提供简洁API和统一模型配置,支持Swift及命令行接口绑定。其核心创新在于实现可追踪的计算...

Read More
2025-07-10 talkingdev

实践教程:探索Gemma 3n与MatFormer的弹性推理能力

Google最新发布的Gemma 3n和MatFormer模型采用了创新的嵌套Transformer架构,通过Mix-n-Match技术实现弹性推理功能。该技术允许模型在运行时动态调整计算资源分配,显著提升推理效率并降低计算成本。本实践教程详细...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page