漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-07-10 talkingdev

学习在测试时:新型RNN变体超越Mamba

最近,一种新型的循环神经网络(RNN)变体在多项任务中的表现超过了Mamba。这种新型的RNN变体的重要特点是其更新函数本身就是一个机器学习(ML)模型。这使得它可以处理长上下文和在上下文中进行学习。在现今的机器...

Read More
2024-07-09 talkingdev

Google DeepMind与哈佛大学合作开发AI鼠脑,或使机器人能像真鼠一样灵活移动

Google DeepMind与哈佛大学联合开发了一种虚拟鼠,利用AI神经网络训练,仿效实际鼠的动作和神经模式,以研究负责复杂运动技能的脑电路。这种受生物启发的AI具有将学习的移动技能普及到新环境的能力,为研究脑功能和...

Read More
2024-07-01 talkingdev

Laplace神经运算符:基于神经网络的PDE近似架构开源

Laplace神经运算符是一种基于神经网络的架构,专为近似偏微分方程(PDE)而设计。这种运算符将神经网络的强大能力和灵活性与PDE问题的复杂和多样性相结合,打开了一种全新的解决PDE问题的方式。这种方法的优点在于,...

Read More
2024-06-28 talkingdev

Meta LLM Compiler:神经优化器和反汇编器

Meta LLM编译器是一种新型编译器,采用神经网络进行优化和反汇编,能够显著提高代码的性能和可读性。该编译器可以自动检测代码中的瓶颈,并通过神经网络进行优化,从而提高代码的运行速度。此外,Meta LLM编译器还可...

Read More
2024-06-27 talkingdev

深度挖掘:稀疏自编码器(SAEs)的应用与实践

Golden Gate Claude 是一个出色的案例,展示了如何使用SAEs(稀疏自编码器)进行模型的驾驭和解读。该工作为我们提供了一个直观的解释,解释了它是如何工作的,并提供了一些用于训练这些模型的示例代码。自编码器是...

Read More
2024-06-21 talkingdev

LayerMerge:新方法提升神经网络效率

LayerMerge是一种新的方法,通过联合裁剪卷积层和激活函数来提高神经网络的效率。在神经网络中,卷积层和激活函数是最基本的两个组成部分,它们的有效组合和优化对于提升网络性能和效率至关重要。LayerMerge通过在网...

Read More
2024-06-19 talkingdev

Nvidia在最新AI测试中表现出色

在MLPerf的两项新测试中,由Nvidia的Hopper架构驱动的系统表现突出,这两项测试分别比较了大型语言模型的微调和图神经网络的训练。MLPerf是一个AI基准测试套件,用于比较不同系统在AI任务上的性能。Nvidia的Hopper架...

Read More
2024-06-07 talkingdev

Together AI发布高分辨率图像处理新模型DragonFly Vision

Together AI团队发布了一款名为DragonFly Vision的全新视觉语言模型(VLM)。该模型因其高效的架构在处理极高分辨率图像方面表现卓越。DragonFly Vision采用了一系列先进的技术,包括深度学习和神经网络优化,从而实...

Read More
  1. Prev Page
  2. 5
  3. 6
  4. 7
  5. Next Page