漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-07-09 talkingdev

微软开源Minference,大幅提升模型推理速度

微软近日发布了Minference,这是一款能够显著提升支持模型推理速度的系统。通过一系列系统性的改进,Minference能够在不损失准确性的前提下,大大提升模型的推理速度。这一创新举措显示了微软在人工智能领域的巨大投...

Read More
2024-06-21 talkingdev

Character AI推理效率优化:实现每秒2万次查询

Character AI是一家知名的人工智能公司,其每秒可处理20,000次查询,这一数据相当于Google搜索量的20%。为了能够高效运行,Character AI团队进行了一系列的创新性改进。这些改进不仅提高了系统的运行效率,还提升了...

Read More
2024-06-12 talkingdev

Mistral.rs开源:Rust基础推理框架性能升级

Mistral.rs是一款基于Rust的推理框架,其最新版本已经上线。这款框架在最新的版本中实现了性能的重大提升,增加了GGUF支持,并带来了更多其他改进。Mistral.rs是专为机器学习和人工智能研究者设计的一款强大工具,其...

Read More
2024-05-20 talkingdev

MoonDream-基于WebGPU实现在线运行大模型

MoonDream在最新的实验中,利用WebGPU的推断功能,直接在网络上运行了一个小型的MoonDream VLM。这一实验的成功,标志着MoonDream在提升其在线服务能力方面又迈出了重要的一步。WebGPU是一种新型的网络图形技术,它...

Read More
2024-05-15 talkingdev

论文:深度学习新模型,无状态序列并行推理

深度学习领域有了一项新的突破。研究人员开发出了一个新的状态空间模型,这一模型使用双重转移函数表示。其主要特点是一个无状态的序列并行推理算法。这种新的推理算法能够在处理大规模数据时,有效提高计算效率和准...

Read More
2023-09-15 talkingdev

MLPerf结果强调了生成AI和存储的日益重要性

MLPerf发布了两个基准测试套件的结果:MLPerf Inference v3.1和MLPerf Storage v0.5。前者显示了创纪录的参与度和性能提升,后者评估了机器学习训练工作负载的存储系统性能。推理基准测试套件引入了一个大型语言模型...

Read More
2023-09-14 talkingdev

ExLlamaV2:在消费级GPU上运行本地LLMs的推理库

ExLlamaV2是一个在GitHub上开源的项目,它是为现代消费级图像处理单元(GPU)上运行本地语言模型(LLMs)而设计的推理库。这款推理库的出现,可以帮助用户在个人电脑上使用现代GPU进行深度学习模型的推理计算,而无...

Read More
2023-09-12 talkingdev

无需草稿模型,加速推测解码的新方法

语言模型推理通常较慢,因为这些模型的运行严重依赖内存。为了解决这一问题,人们引入了使用较小的草稿模型进行推测性解码,以“提前”提供给大模型的建议。这种方法效果不错,但实现起来复杂,且寻找一个好的草稿模型...

Read More
  1. Prev Page
  2. 1
  3. 2
  4. 3
  5. Next Page