漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-05-10 talkingdev

一次缓存,永久有效:YOCO架构再塑GPU内存需求

YOCO架构是一种具有全局注意力能力的解码器-解码器模型,能有效地降低GPU内存需求。它包含一个自解码器和一个交叉解码器,使得关键-值对的缓存和复用更加高效。与传统的Transformer相比,YOCO在推理内存、延迟和吞吐...

Read More
2024-05-09 talkingdev

苹果发布专为AI设计的M4芯片

苹果公司宣布了下一代Apple Silicon芯片——M4,这也是该公司首款专为人工智能设计的芯片。新芯片采用3纳米架构,并将首次在2024年的iPad Pro中亮相。新芯片拥有10核CPU,速度比M2快50%,并配备了新的神经引擎,能够每...

Read More
2024-05-08 talkingdev

搜索和推荐的融合:新的机器学习模型提出解决方案

传统上,搜索和推荐一直被分开,因为虽然它们在概念上占据了同一光谱的两端,但它们具有不同的工具、架构和机器学习目标。大型语言模型引入了需要小心管理的期望,因为在开放式解决方案空间中引导客户意图是很困难的...

Read More
2024-05-02 talkingdev

用旧的 Raspberry Pi 试试 RISC OS,体验不一样的感觉

如果你有一台旧的 Raspberry Pi,不妨试试 RISC OS。RISC OS 是一款适用于 ARM 架构计算机的操作系统,它拥有简单易用的图形化界面和快速的响应速度。相比其他的 Raspberry Pi 操作系统,RISC OS 更加轻量级,占用更...

Read More
2024-05-02 talkingdev

KAN:科尔莫戈洛夫-阿诺德Kolmogorov-Arnold网络的研究进展

如今,多层感知器在人工智能领域得到了广泛的应用,包括在Transformer的关注层之间。然而,它们使用的是固定的激活函数。最新研究论文建议在边缘使用学习的激活函数,利用科尔莫戈洛夫-阿诺德表示法(函数可以由更简...

Read More
2024-05-02 talkingdev

深度解析:Gemma的Transformer架构详解

理解Transformer的工作原理常常需要多次尝试。本篇博客文章通过详细解读Gemma架构,帮助读者深入理解Transformer。文章内容明了,包含了代码和图解,无论是对于初学者还是专业人士来说,都能从中获取到有价值的信息...

Read More
2024-04-28 talkingdev

论文:利用图神经网络预测器优化神经架构搜索

在神经架构搜索(NAS)的创新工作中,引入了一种图神经网络(GNN)预测器,这种预测器可以提高识别特定任务的最优神经网络配置的效率。GNN预测器通过理解神经网络的图结构,从而可以更有效地预测神经网络的性能,这...

Read More
2024-04-28 talkingdev

tiny-gpu开源:一种基于Verilog的最小化GPU实现

近日,GitHub上发布了一个名为tiny-gpu的项目,这是一个基于Verilog实现的最小化GPU。该项目的主要优化方向是帮助用户从头开始学习GPU的工作原理。tiny-gpu尝试通过最简单的方式,将GPU的操作和结构进行模拟和实现,...

Read More
  1. Prev Page
  2. 41
  3. 42
  4. 43
  5. Next Page