近日,研究人员通过优化技术展示了大型语言模型(LLMs)在减少非embedding参数的同时仍能保持学习能力。研究表明,通过用优化的子网络替换密集层,LLMs可以在减少高达77%的参数的情况下,依然保持与原有模型相当的性...
Read More近日,一项新的LLM(大型语言模型)优化技术在人工智能领域引起了广泛关注。这项技术通过在模型架构和训练算法上的创新,实现了对LLM内存消耗的显著降低,从而大幅度减少了模型部署和运行的成本。具体来说,这项技术...
Read MoreZen 5是AMD公司的一款最新处理器,它的2-ahead分支预测器是一项重要的技术创新。这种分支预测器可以帮助CPU在处理指令时更快地判断分支的方向,从而避免处理器浪费时间在错误预测上。这项技术的基础理论可以追溯到30...
Read More近日,Zig的新C编译器Aro在GitHub上发布。Aro是基于Zig语言的全新C编译器,旨在提供更好的错误处理和代码生成。与LLVM不同,Aro使用现代的代码生成技术,可以在编译时检测出更多的错误,并提供更好的诊断信息。此外...
Read MorePostgres是一个流行的关系型数据库,但在处理大型数据集时可能会变得缓慢。一项新的研究表明,通过使用特定的查询优化技术,可以将Postgres查询速度提高1千倍。研究人员发现,通过使用特定的索引和优化查询语句,可...
Read MoreQoQ,一种新型量化算法,通过使用4位权重、8位激活和4位KV缓存,加速了大型语言模型推理。量化是一种广泛应用于深度学习中的技术,它能够减少模型的存储需求和计算复杂性。在这种情况下,QoQ算法采用了较低精度的数...
Read More科研人员已经开发出一种名为微梦想家(MicroDreamer)的创新3D生成算法。这种算法通过降低所需函数评估的数量,显著加快了3D生成的过程。微梦想家算法采用先进的计算策略和优化技术,大大提升了3D建模和渲染的效率和...
Read More