近日,GitHub上开源了一个名为MoDA的项目,它实现了一种创新的注意力机制——混合深度注意力。该机制的核心突破在于,允许注意力头同时访问当前层以及更早层的键值对。这一设计旨在解决随着模型深度增加,信息在传递过...
Read More人工智能研究机构Percepta近期发布了一项前沿研究成果,探讨了大型语言模型(LLMs)作为通用计算设备的可能性。该研究成功在Transformer架构内部构建了一个“计算机”,能够高效执行任意的C语言程序,并运行数百万个计...
Read More近日,通义千问团队在Hugging Face平台正式发布了Qwen3.5-35B-A3B模型。该模型集成了当前人工智能领域的多项前沿技术突破,旨在通过开源方式推动AI技术的民主化与普及。其核心亮点在于原生支持高达262,144个令牌的上...
Read More近日,在GitHub上开源名为“ntransformer”的高效大语言模型推理引擎项目,其核心创新在于探索并实现了通过NVMe存储设备直接与GPU通信,绕过CPU和系统内存的传统数据路径,从而在消费级显卡RTX 3090上成功运行了参数量...
Read More近日,一款名为Micasa的开源工具在开发者社区引发关注。它是一款运行在终端(Terminal)的文本用户界面(TUI)应用,旨在帮助用户高效管理家庭事务,从记录洗碗机滤网清洁周期、后院改造报价,到追踪墙面霉菌处理等...
Read More人工智能开源社区Hugging Face近日在NPM上发布了Transformers.js v4的预览版本,标志着在Web端及JavaScript生态系统中部署和运行机器学习模型的能力迈入了新的阶段。Transformers.js的核心价值在于允许开发者直接在...
Read More一项最新研究显示,通过对开源大语言模型进行高效的微调,其性能可以超越顶尖的闭源模型。研究团队采用直接偏好优化方法,仅使用5400对偏好数据对GPT-OSS 120B模型进行训练,使其在RewardBench 2评估基准的人类偏好...
Read More近日,一位开发者为解决自身普通话声调学习的痛点,训练并开源了一个超轻量级的语音评估模型。该模型专门用于对普通话的发音和声调进行实时评分与纠正,为解决语言学习中“听不出自身错误”的普遍难题提供了技术方案。...
Read More