加州大学伯克利分校研究团队开发的进化编码智能体OpenEvolve,成功将大型语言模型转化为自主代码优化器,在混合专家模型负载平衡任务中取得重大突破。该系统通过模拟自然选择机制,使LLM能够自主探索算法空间,最终...
Read MoreThinking Machines公司近期发布的研究成果《模块化流形》提出了一种创新的几何框架,用于协同设计带有流形约束的神经网络优化器。该框架通过引入微分几何中的流形概念,将优化问题的约束条件自然地嵌入到神经网络训...
Read MoreApache社区最新推出SedonaDB——一款基于Rust构建的开源单节点分析数据库引擎,其革命性突破在于将地理空间数据提升为“第一优先”。该引擎深度集成Apache Arrow列式内存计算框架与DataFusion查询引擎,原生支持空间数据...
Read More月之暗面(MoonshotAI)团队最新发布的Kimi K2技术报告揭示了其大型语言模型系列的重大技术突破。该团队创新性地开发出MuonClip技术,通过将token高效的Muon优化器与新型QK-Clip技术相结合,成功解决了万亿参数模型训...
Read More近日,首个基于Muon优化器训练的大规模模型Moonlight 16B在GitHub上正式发布。该模型经过5.7万亿个token的训练,架构与DeepSeek v3高度相似。Muon优化器的引入为大规模模型的训练提供了新的可能性,显著提升了训练效...
Read MoreMeta LLM编译器是一种新型编译器,采用神经网络进行优化和反汇编,能够显著提高代码的性能和可读性。该编译器可以自动检测代码中的瓶颈,并通过神经网络进行优化,从而提高代码的运行速度。此外,Meta LLM编译器还可...
Read MoreImbue公司成功训练并发布了一款极其强大的70B语言模型。这款模型采用了Imbue自家的优化器,以及一些出色的数据过滤技术,训练过程中没有出现任何损失峰值。这表明该公司在技术上取得了显著的突破,为人工智能语言模...
Read MoreMirage项目是一个多层次的张量优化引擎,能够产生极高性能的线性代数模块内核。它利用了张量的多层结构,进行深度优化,从而实现了高度优化的内核计算。在GitHub上,Mirage项目已经开源,并得到了广大开发者的热烈追...
Read More