漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-10-04 talkingdev

FastStream:构建与事件流交互的异步服务的Python框架

FastStream是一个Python框架,用于构建与事件流交互的异步服务。该框架旨在简化在异步代码中执行事件流处理的过程。FastStream 提供了一个轻量级且易于使用的API,允许开发人员将事件流处理任务与异步服务相结合。Fa...

Read More
2023-10-04 talkingdev

稳定运行 Diffusion XL 1.0,仅需 298MB 内存

Diffusion XL 1.0 是一款高性能、低内存占用的消息传递软件,最新版本仅需 298MB 的内存即可稳定运行。该软件支持多种协议和语言,能够提供快速、可靠的数据传输服务,适用于各种场景。此外,Diffusion XL 1.0 优化...

Read More
2023-10-04 talkingdev

使用Docker Compose和Traefik同时处理多个Web项目

在当今的互联网时代,Web开发已成为一个非常重要的领域。对于Web开发人员而言,同时处理多个Web项目是一项非常重要的任务。使用Docker Compose和Traefik可以轻松地完成这项任务。Docker Compose是一个非常流行的容器...

Read More
2023-09-21 talkingdev

检索不仅仅是嵌入式搜索:AI检索技术的改进与挑战

语言模型在处理实际查询时,经常出现虚构的细节。通过检索事实,我们可以减少这些不准确性。然而,将查询嵌入并对向量存储进行搜索的检索增强生成(RAG)的基础形式往往表现不佳。本文讨论了如何利用查询对象和信息...

Read More
2023-09-15 talkingdev

MoEs模型在参数效率上的极限突破

混合专家模型(MoEs)是一种增加模型容量的有效方法,同时不会增加每个令牌的运行时间。然而,让它们快速运行并进行微调仍然具有一定的难度。最新研究发现,如果你能有效地修改密集模型参数,以配合MoEs的微调,就能...

Read More
2023-09-15 talkingdev

MLPerf结果强调了生成AI和存储的日益重要性

MLPerf发布了两个基准测试套件的结果:MLPerf Inference v3.1和MLPerf Storage v0.5。前者显示了创纪录的参与度和性能提升,后者评估了机器学习训练工作负载的存储系统性能。推理基准测试套件引入了一个大型语言模型...

Read More
2023-09-06 talkingdev

BLoRA开源,同一GPU上批量处理LoRAs

LoRAs是一种小型的参数适配器,通过插入到某些层次来改变底层模型的行为。你可以为基础模型进行批量生成,以提高性能。此外,你还可以对LoRA修改后的模型进行批量处理,并向不同的用户提供具有不同性能的模型。这种...

Read More
2023-09-05 talkingdev

从浏览器小子到后端老大:WASM会赢得网络战争吗?

WebAssembly是一种二进制格式,允许Web开发者以接近本地速度运行代码,这可能确实会成为后端软件开发的未来。WebAssembly(WASM)是一个开放标准,可以将几乎任何语言编写的代码编译成一种可在Web上运行的格式,使得...

Read More
  1. Prev Page
  2. 36
  3. 37
  4. 38
  5. Next Page