漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-25 talkingdev

Garnet:新一代远程缓存存储解决方案

Garnet是一个远程缓存存储系统,具备卓越的性能、可扩展性、存储恢复能力、集群分片、键迁移和复制功能。该技术与现有的Redis客户端兼容,能够处理多键事务。Garnet拥有快速的可插拔网络设计,确保了端到端的高性能...

Read More
2024-03-20 talkingdev

英伟达年度GPU技术大会:黄仁勋主题演讲重点解析

在近日举行的英伟达年度GPU技术大会上,公司创始人兼首席执行官黄仁勋发表了主题演讲。本次演讲重点介绍了英伟达最新的技术进展和未来展望。黄仁勋强调了英伟达在人工智能、深度学习以及高性能计算等领域的领先地位...

Read More
2024-03-08 talkingdev

CoLLM-通过协作提高LLM性能

Co-LLM推出了一种新方法,可以让大型语言模型协作,逐标记生成文本。这种策略允许模型利用其独特的优势和专业知识来完成各种任务,从而在遵循指令、特定领域问题和推理挑战等方面提高性能

Read More
2024-02-28 talkingdev

自动驾驶汽车中的性能与效率平衡

近日,研究人员提出了一种新的自动驾驶汽车高效模型——尖峰神经网络。该模型通过减少能耗高达85%,实现了高性能的目标。该模型在 GitHub 上建立了一个存储库,供研究人员和开发人员参考。据悉,尖峰神经网络结合了神...

Read More
2024-02-28 talkingdev

开源未来令牌增强自回归模型

该项目引入了回声嵌入,这是一种新的策略,通过将未来令牌信息纳入其中,克服了自回归模型的一个关键限制。这是通过将输入重复两次来实现的,这显著提高了基准任务的性能,同时与其他嵌入增强方法兼容。

Read More
2024-02-28 talkingdev

Litestar:打造高性能API的轻量级ASGI框架

据悉,Litestar是一款轻量级、灵活的ASGI框架,适用于构建高性能API。其优点在于提供了简洁的API并支持异步编程模型,还具有可扩展性、易用性和可读性等优秀特性。此外,Litestar还为开发人员提供了丰富的文档和示例...

Read More
2024-02-22 talkingdev

深入探究:硬核Mamba技术加速

Sasha Rush发布了一份注释教程,介绍了如何使用自定义Triton内核加速Mamba。由于Triton编译器中的一个错误,它目前无法扩展,但它是技术的极端演示,并适合那些想要深入了解状态空间变换器替代品的人。Mamba是一种用...

Read More
2024-02-22 talkingdev

LoRA+:优化模型微调的新方案

本文介绍了LoRA+,一种优于现有Low-Rank Adaptation (LoRA)方法的微调大模型的方法。LoRA+通过为过程中的关键部分使用不同的学习速率来实现更好的性能和更快的微调,而无需增加计算需求。

Read More
  1. Prev Page
  2. 34
  3. 35
  4. 36
  5. Next Page