三星蒙特利尔AI实验室最新研究《Less is More: Recursive Reasoning with Tiny Networks》提出突破性方法,通过递归架构使参数量极少的神经网络具备复杂推理能力。该研究在arXiv公开的论文(编号2510.04871)中展示...
Read More据《金融时报》报道,OpenAI已与美国芯片巨头博通达成合作,双方将共同设计专用于人工智能计算的芯片,并计划于2025年投入生产。OpenAI已承诺投入100亿美元用于芯片订单,这些芯片将完全用于其内部AI模型训练与推理...
Read More研究人员通过前沿AI技术实现了重大突破:利用自主生成的Metal GPU内核,将PyTorch在苹果设备上的推理速度平均提升1.87倍。这项研究测试了215个PyTorch模型,其中部分工作负载甚至达到基线性能的数百倍加速。该技术采...
Read More最新技术分析揭示了NVIDIA GPU和谷歌TPU在人工智能计算领域的架构本质差异。现代机器学习GPU本质上是由专精于矩阵乘法的计算核心集群与高速内存条构成的异构体系,而TPU则是纯粹为矩阵运算设计的专用加速器,具有成...
Read More过去几年,AI行业一直遵循着类似摩尔定律的发展轨迹,即智能计算成本每年呈数量级下降,且每一代新模型不仅性能更强,运行成本也更低。然而,谷歌上周发布的Gemini 2.5 Flash模型打破了这一趋势——其输入token价格翻...
Read More惠普AI Studio推出创新技术方案,通过模型蒸馏技术将前沿大语言模型DeepSeek-R1的推理能力压缩至可在本地设备运行的轻量级版本。该技术突破实现了大模型从云端到本地的迁移,用户可通过Ollama框架进行本地推理部署,...
Read MorePERQ计算机是一款引领计算机技术进步的重要产品,它在设计和功能上都展现了创新的理念。该计算机采用了先进的硬件架构和高效的处理器,能够满足现代计算需求。PERQ计算机的特点包括出色的图形处理能力和支持多种操作...
Read More据报道,Nvidia正在准备一款系统芯片(SoC),该芯片将Arm的Cortex-X5核心设计与基于Nvidia Blackwell架构的GPU相结合。这一组合旨在提升人工智能计算性能,为PC提供更强大的AI处理能力。Nvidia的这一举措可能会显著...
Read More