漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-10-31 talkingdev

OpenZFS去重技术的现状与未来展望

OpenZFS的去重技术近年来取得了显著进展,性能和效率得到了大幅提升。然而,尽管去重功能看似诱人,实际应用中却并不总是最佳选择。首先,去重过程需要消耗额外的CPU资源和内存,这可能导致系统在高负载时性能下降。...

Read More
2024-10-10 talkingdev

Dito开源:基于Go的第七层反向代理服务器

Dito是一款先进的第七层反向代理服务器,采用Go语言开发,旨在提升Web应用的性能和安全性。该服务器支持多种协议和负载均衡策略,能够有效处理高并发的请求。Dito的设计注重灵活性和可扩展性,允许用户根据自身需求...

Read More
2024-05-28 talkingdev

构建RAG信息检索测量的工具包

构建一个RAG系统需要了解检索部分的工作效果。这个工具包提供了多种强大的信息检索性能测量方法,帮助开发者深入分析和优化检索系统的性能。无论是精确度、召回率还是F1分数,这个工具包都能为您提供详尽的数据支持...

Read More
2024-05-13 talkingdev

E2URec开源,让推荐系统“遗忘”用户数据保护隐私

E2URec是一种全新的方法,可以让基于大型语言模型的推荐系统高效、有效地“遗忘”用户数据,保证用户隐私的同时,又不牺牲系统性能。这种新方法以用户隐私保护为核心,通过改变推荐系统的学习机制,实现对用户数据的有...

Read More
2024-04-29 talkingdev

FrugalGPT:有效降低LLM API成本的策略

FrugalGPT是一套可以大幅度降低LLM API成本的策略。这些策略包括提示压缩、缓存等操作。提示压缩可以通过减少数据大小来降低传输和存储成本,同时也可以提高数据处理速度。而缓存则可以通过存储经常访问的数据来减少...

Read More
2024-04-12 talkingdev

JetMoe:性能媲美Meta Llama 2 7B的AI模型,成本仅为10万美元

JetMoe是一个基于混合专家模型的新AI系统,通过使用公共数据集和合理的计算资源进行训练,其性能与Meta的Llama 2 7B模型相媲美,但成本仅为10万美元。这一突破性的技术成果不仅展示了在不牺牲性能的前提下降低AI模型...

Read More
2024-04-08 talkingdev

MLPerf 基准测试新增大型生成型AI模型,Nvidia 系统性能超群

MLPerf 近日更新了其推理基准测试,新增了如 Llama 2 70B 和 Stable Diffusion XL 等大型语言模型,这一变化体现了整个行业对于大型生成型人工智能的转移。在最新测试中,Nvidia 的系统,尤其是搭载了 H200 处理器的...

Read More
2023-09-15 talkingdev

MLPerf结果强调了生成AI和存储的日益重要性

MLPerf发布了两个基准测试套件的结果:MLPerf Inference v3.1和MLPerf Storage v0.5。前者显示了创纪录的参与度和性能提升,后者评估了机器学习训练工作负载的存储系统性能。推理基准测试套件引入了一个大型语言模型...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page