漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-07-02 talkingdev

改进推理效率的Block Transformer

这个代码库引入了一种新型的Transformer变压器,其KV缓存大小大幅度减少。虽然尚未在大规模上得到证实,但理论上,它可以匹配常规变压器的性能。这意味着,我们现在有了一种新的工具,可以在处理复杂的计算问题时,...

Read More
2024-06-28 talkingdev

Point-SAM:互动引导下的3D分割变革模型

为满足对详细3D数据的日益增长的需求,研究人员推出了Point-SAM,这是一种基于变革者的3D分割模型。这个模型将大大提高3D数据处理的效率和精度。与传统的3D分割技术相比,Point-SAM能够提供更精细的数据,从而更好地...

Read More
2024-06-27 talkingdev

Director3D开源-现实世界3D场景AI生成框架

近日,一款名为Director3D的新框架引起了行业内的广泛关注。这款框架的设计目标是提升现实世界3D场景的生成和相机轨迹的模拟。Director3D运用了一种名为轨迹扩散变换器(Trajectory Diffusion Transformer)和多视图...

Read More
2024-06-26 talkingdev

Transformer进行分子模型设计:GeoMFormer的全新实践

GeoMFormer是一种全新的基于Transformer的模型,旨在通过学习不变量和等变量特征来改进分子模型。这种模型的设计,彻底改变了传统分子建模的方法,为化学和生物科学的研究者提供了新的视角和工具。GeoMFormer的出现...

Read More
2024-06-26 talkingdev

Etched筹集1.2亿美元A轮融资,为Transformer生产AI芯片

Etched近日宣布完成由Primary Venture Partners和Positive Sum Ventures主导的1.2亿美元融资,天使投资人包含Peter Thiel,Stanley Druckenmiller和David Siegel等。Etched正在与TSMC的新兴业务集团直接合作,以在其...

Read More
2024-06-25 talkingdev

本地语音聊天机器人June:结合Ollama、Hugging Face Transformers和Coqui TTS Toolkit的能力

最近,一款名为June的本地语音聊天机器人引起了业界的注意。这款聊天机器人结合了Ollama、Hugging Face Transformers和Coqui TTS Toolkit的技术,实现了高效的人工智能对话功能。“June”通过这三种强大的工具,可以模...

Read More
2024-06-20 talkingdev

Logit Prisms:分解Transformer输出以提高解释性

Logit Lens方法已经得到了增强,该方法通过分解logit输出,帮助我们理解Transformer模型的决策过程。这种方法使用“prisms”来处理残差流,注意力层和MLP层,揭示了这些部分如何影响预测,并为gemma-2b模型执行的诸如...

Read More
2024-06-12 talkingdev

论文:改变Transformers计算效率,用结构化矩阵替代密集层

当前,大多数用于Transformers的计算花费在线性层上。这项工作利用muP和Monarch矩阵构建了一个结构化表示,不仅减少了计算量,而且比原始的密集层拥有更好的扩展规则。这项技术可以提高计算效率,降低运算成本,为AI...

Read More
2024-05-23 talkingdev

Mamba在视觉任务中的必要性探讨

Mamba作为一种强大的Transformer替代方案,因其能够在保持性能的同时使用更少的FLOPs而备受关注。然而,最新研究表明,对于某些应用来说,Mamba可能并非必需。该研究通过实验表明,一个经过精心调优的CNN基线在一系...

Read More
2024-05-21 talkingdev

LeMeViT:通过可学习元令牌加速视觉Transformer

LeMeViT是一种新的方法,通过使用可学习元令牌来降低视觉Transformer的计算成本。这些元令牌能够高效地捕捉关键信息,从而显著提高推理速度。与传统的视觉Transformer相比,LeMeViT在保持高精度的同时,大幅减少了计...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page