漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-08 talkingdev

CoLLM-通过协作提高LLM性能

Co-LLM推出了一种新方法,可以让大型语言模型协作,逐标记生成文本。这种策略允许模型利用其独特的优势和专业知识来完成各种任务,从而在遵循指令、特定领域问题和推理挑战等方面提高性能

Read More
2024-02-28 talkingdev

自动驾驶汽车中的性能与效率平衡

近日,研究人员提出了一种新的自动驾驶汽车高效模型——尖峰神经网络。该模型通过减少能耗高达85%,实现了高性能的目标。该模型在 GitHub 上建立了一个存储库,供研究人员和开发人员参考。据悉,尖峰神经网络结合了神...

Read More
2024-02-28 talkingdev

开源未来令牌增强自回归模型

该项目引入了回声嵌入,这是一种新的策略,通过将未来令牌信息纳入其中,克服了自回归模型的一个关键限制。这是通过将输入重复两次来实现的,这显著提高了基准任务的性能,同时与其他嵌入增强方法兼容。

Read More
2024-02-28 talkingdev

Litestar:打造高性能API的轻量级ASGI框架

据悉,Litestar是一款轻量级、灵活的ASGI框架,适用于构建高性能API。其优点在于提供了简洁的API并支持异步编程模型,还具有可扩展性、易用性和可读性等优秀特性。此外,Litestar还为开发人员提供了丰富的文档和示例...

Read More
2024-02-22 talkingdev

深入探究:硬核Mamba技术加速

Sasha Rush发布了一份注释教程,介绍了如何使用自定义Triton内核加速Mamba。由于Triton编译器中的一个错误,它目前无法扩展,但它是技术的极端演示,并适合那些想要深入了解状态空间变换器替代品的人。Mamba是一种用...

Read More
2024-02-22 talkingdev

LoRA+:优化模型微调的新方案

本文介绍了LoRA+,一种优于现有Low-Rank Adaptation (LoRA)方法的微调大模型的方法。LoRA+通过为过程中的关键部分使用不同的学习速率来实现更好的性能和更快的微调,而无需增加计算需求。

Read More
2024-02-21 talkingdev

可租用的GPU集群列表

本文提供了一份可租用的GPU集群列表,这些集群可按小时租用,提供高性能计算能力,适用于需要大量计算的机器学习和深度学习任务。以下是可租用的GPU集群列表: 1. AWS EC2 P3(美国) 2. Google Cloud Platform(欧...

Read More
2024-02-21 talkingdev

OpenRLHF开源,提供基于Ray的RLHF实现

近日,GitHub上有一个新的仓库OpenRLHF发布了。这是一个基于Ray的RLHF实现,专为Llama样式模型设计。该仓库集成了多种PPO稳定技巧,以提高性能。Ray是一款新型的分布式计算框架,它具有高效、易用等特点,支持快速构...

Read More
2024-02-19 talkingdev

Lambda Labs完成3.2亿美元C轮融资,将继续构建强大的GPU云

Lambda Labs最近完成了3.2亿美元的C轮融资,以继续推进其强大的GPU云技术。该公司的GPU云可以为用户提供高性能计算和机器学习服务。Lambda Labs计划利用这笔融资来扩大其研发团队和全球业务,以加速其在云计算领域的...

Read More
2024-02-06 talkingdev

Pygmalion推理引擎开源

Aphrodite引擎可以用于减少VRAM需求,提高AI推理工作负载的吞吐量。Pygmalion推理引擎是一种全新的AI推理引擎,它可以在减少VRAM需求的同时提高吞吐量。该引擎基于Aphrodite引擎并进行了优化,可以在保持准确性的同...

Read More
  1. Prev Page
  2. 11
  3. 12
  4. 13
  5. Next Page