近日,GitHub上一个名为‘soulplayer-c64’的开源项目引发了技术社区的广泛关注。该项目成功地在仅有1MHz主频、内存极其有限的经典计算机Commodore 64上,部署并运行了一个拥有25,000个参数的真实Transformer神经网络...
Read MoreMeta近日分享了其容量效率计划的深度洞察,核心成果是构建了一个统一的人工智能代理平台。该平台能够自动化地检测并修复其庞大基础设施中的性能衰退问题,标志着超大规模数据中心运维向智能化迈出了关键一步。平台的...
Read More近日,开源社区推出一项旨在提升AI模型移植与代码审查效率的新工具——Skill and Test Harness。该工具专为将Transformer模型移植至苹果MLX框架(mlx-lm)而设计,通过自动化处理模型转换任务,显著降低了开发者的贡献...
Read MoreDeepMind的研究团队近日在arXiv上发布了一项名为“弹性循环Transformer”的创新工作,为视觉生成模型领域带来了显著的效率突破。传统视觉生成模型通常依赖堆叠大量独立的Transformer层,导致参数量庞大。ELT的核心创新...
Read More近日,OpenMed团队在Hugging Face平台发布了一项重要成果,展示了其构建的端到端蛋白质AI全流程。该流程涵盖了蛋白质结构预测、序列设计以及关键的密码子优化环节。研究团队对多种Transformer架构进行了深入的密码子...
Read More随着人工智能技术在各类工具、应用和智能体中的快速普及,其部署速度已远超企业现有的治理与安全管控能力。当前,安全团队面临的核心挑战已从传统边界防护,转向管理AI交互过程中的动态风险:包括输入数据的敏感性、...
Read More近日,一位开发者展示了一项颇具创意的低成本AI部署方案。该项目将两个AI智能体分别部署在独立的服务器上,构建了一个分层、高效的交互系统。公开智能体“nullclaw”是一个仅678KB的Zig语言二进制程序,运行内存约1MB...
Read More近日,GitHub上开源了一个名为MoDA的项目,它实现了一种创新的注意力机制——混合深度注意力。该机制的核心突破在于,允许注意力头同时访问当前层以及更早层的键值对。这一设计旨在解决随着模型深度增加,信息在传递过...
Read More