漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-07-10 talkingdev

扩展AI的记忆:专注Transformer(GitHub Repo)

该研究介绍了一种新的技术,专注变压器,这种技术可以帮助AI模型在处理大量数据的情况下,记住并专注于相关的信息。该方法改进了AI如何理解和使用长篇的文本,他们在OpenAI的模型上的测试显示了这一点。专注变压器的...

Read More
2023-07-05 talkingdev

vlite:用于AI应用的轻量级向量数据库

vlite是一个仅有不到200行代码的向量数据库。它专为智能机器人、ChatGPT插件和其他AI应用而设计。vlite使用了苹果的Metal Performance Shaders与PyTorch结合,加速向量加载,并使用CPU多线程加速向量查询。

Read More
2023-07-03 talkingdev

百万上下文token助力DNA任务

最近,状态空间模型引起了广泛关注。它们作为一种潜在有用的模型替代方案而出现,通过避开Transformer的一些挑战性方面,同时保持性能。在这项工作中,Hyena模型被应用于DNA序列建模,并在23个任务中取得了改进。

Read More
2023-06-30 talkingdev

MusicGen: 简化音乐生成的一种新方法开源

Audiocraft推出MusicGen,这是一种简化和增强音乐生成的模型。这种单阶段的自回归Transformer模型不需要像之前的方法那样进行自监督语义表示,通过并行预测所有码本,它更高效地生成音乐,从而每秒音频的步骤更少。

Read More
2023-06-26 talkingdev

ExLlama:HF Transformers实现的内存更高效的量化权重重写

ExLlama是HF Transformers实现的一种内存更高效的量化权重重写。这个重写的目的是为了在使用量化权重时能够更好地节省内存。Llama是HF Transformers的一个开源项目,但在使用量化权重时存在内存占用较高的问题。ExLl...

Read More
2023-06-22 talkingdev

高吞吐量和内存高效的Transformer(GitHub Repo)

随着Transformer的不断流行,使用频率远远超过训练。这可能会非常慢和昂贵,但通过在GPU上进行一些巧妙的内存布局优化,它们可以获得多倍的加速。

Read More
2023-06-08 talkingdev

CodeTF库发布,助力代码智能化

## 新闻内容: GitHub开源社区发布了一款名为CodeTF的Python Transformer库,致力于提高代码智能化的水平,为使用者提供了一个训练与推理的平台,可以轻松实现代码智能化任务,如代码摘要、翻译、生成等。 CodeTF...

Read More
2023-06-05 talkingdev

Brainformer:以效率换取简单性

近日,谷歌通过基因搜索算法和海量TPU的使用,开发出了一种新的模型——Brainformer,其收敛速度比传统的Transformer模型快5倍,推理速度快2倍。这种模型使用了MoE模块和一些其他巧妙的技巧,充分发挥了TPU的强大性能...

Read More
  1. Prev Page
  2. 48
  3. 49
  4. 50
  5. Next Page