在数据科学和机器学习中,矩阵乘法是一个常见的操作。NumPy是Python中用于处理矩阵和数组的包,但是它在处理大型矩阵时运行速度较慢。为了解决这个问题,一位程序员使用C语言编写了一个矩阵乘法函数,仅用了150行代...
Read More苹果公司宣布了下一代Apple Silicon芯片——M4,这也是该公司首款专为人工智能设计的芯片。新芯片采用3纳米架构,并将首次在2024年的iPad Pro中亮相。新芯片拥有10核CPU,速度比M2快50%,并配备了新的神经引擎,能够每...
Read Morellamafile项目已经成为Mozilla在GitHub上最受欢迎的项目之一,它为用户提供了一种简单快速的方式,在消费级硬件上运行各种开放的大型语言模型。本文将详细介绍项目的开发过程,以及自v0.1版本以来实施的各种变化。最...
Read More谷歌宣布其最新的人工智能芯片Cloud TPU v5p现已问世。这款芯片的训练速度是前代TPU v4的近三倍,尤其在大型语言模型的训练上表现出色。这一发布进一步巩固了谷歌在AI硬件领域与其他竞争对手如Nvidia的竞争优势。同...
Read More随着计算机架构设计的发展,为了隐藏延迟,缓存层级在计算单元与主存之间不断增加。这些缓存在CPU之间部分共享,导致无法完全隔离共同托管容器的性能。奈飞的团队通过将CPU隔离的责任从操作系统转移到基于数据的解决...
Read More微软计划于5月20日在西雅图举行的活动上展示其对AI PC的愿景。公司对新款Arm架构Windows笔记本充满信心,认为其将在CPU性能和AI加速任务方面超越苹果搭载M3芯片的MacBook Air。这些笔记本将搭载高通的Snapdragon X E...
Read More微软为构建AI电脑的OEM厂商设定了新规范,其中包括必须配备Copilot键的要求。要被认定为AI电脑,OEM合作伙伴还必须提供包括神经处理单元(NPU)、最新CPU和GPU以及访问Copilot在内的硬件和软件组合。目前尚不清楚OEM...
Read MoreDaft是一种专门为云端大数据处理而设计的分布式查询引擎。它具有熟悉的交互式API、强大的查询优化器、数据目录集成、丰富的多模式类型系统等特点。Daft的设计目的是能够处理任何数据,它专为大型机器集群上的交互式...
Read More谷歌工程师和科学家开发了一个新的代码库,名为CPP Gemma推理引擎。与llama.cpp类似,该代码库允许在SIMD CPU架构上进行推理。该工具的目的是鼓励实验和使用昨天发布的Gemma模型。
Read More尽管过去七年来SSD技术有了很大的提升,但AWS NVMe实例的性能仍然停留在每个SSD 2GB/s的速度。这远远低于SSD的最大速度。这是因为在云端中,SSD不能直接连接到CPU和内存。相反,SSD必须通过网络连接到服务器,这会导...
Read More