漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-04-10 talkingdev

SqueezeAttention技术助力LLM优化,内存使用降低30%至70%

近日,开发者社区GitHub上出现了一项名为SqueezeAttention的新技术,该技术针对大型语言模型(LLMs)的键值缓存进行了优化。通过SqueezeAttention,内存使用量能够显著降低30%至70%,同时吞吐量也得到了翻倍提升。这...

Read More
2024-04-08 talkingdev

ReFT:一种高效节省参数的微调语言模型方法

近期在GitHub上发布的ReFT(Representation Fine-Tuning)项目,为微调语言模型带来了一种新的参数高效方法。与传统的PeFT相比,ReFT在保持强大性能的同时,大大降低了成本。该方法通过精细化调整模型参数,使得在进...

Read More
2024-04-05 talkingdev

SableDb:一款旨在降低内存成本、提升容量的键值对NoSQL数据库

SableDb是一款新兴的键值对NoSQL数据库,其设计目标是相较于Redis进一步降低内存成本并提升数据存储容量。该数据库采用了高效的数据结构和算法,优化了内存使用效率,使得在处理大量数据时仍能保持较低的资源消耗。S...

Read More
2024-04-04 talkingdev

论文:新型DiJiang技术助力Transformer模型高效瘦身

科研团队近期推出了一项名为DiJiang的创新技术,旨在将现有的Transformer模型转化为更精简、更快速的版本,同时避免了重新训练模型所需的巨大成本。DiJiang技术通过优化模型结构,大幅减少了计算资源的消耗,使得Tra...

Read More
2024-04-03 talkingdev

创新公司颠覆AI模型开发高成本观念

YC支持的25家创业公司通过培训或微调自有的基础模型,打破了构建AI模型需要巨额资源的传统观念。这些公司在短时间内取得了显著成就,如创造专业音乐和设计新型蛋白质。这些公司利用YC的资金和技术支持,跨越不同领域...

Read More
2024-04-01 talkingdev

Qwen MoE性能匹敌7B大模型,激活参数仅三分之一

近期,一项名为Qwen MoE的技术引起了业界关注。该技术在保持与强大7B参数模型相当性能的同时,成功将激活参数数量减少至原来的三分之一。这一突破性的进展不仅意味着更低的计算成本,还为大规模机器学习模型的可访问...

Read More
2024-03-29 talkingdev

人工智能时代,职场机会与高薪并存

随着人工智能专家不断探索自动化人类任务,人们开始担忧就业岗位的减少和工资下降。然而,人工智能进步必然导致人类工作过时的观点可能并不准确。由于计算能力、机会成本等因素的限制,人类在未来仍可能保持就业,尽...

Read More
2024-03-29 talkingdev

论文:CoDA技术助力AI模型无监督领域适应能力提升

CoDA作为一种新的无监督领域适应(UDA)方法,通过在场景和图像两个层面学习差异,帮助AI模型更好地适应未标记的、具有挑战性的环境。CoDA的核心在于利用大量未标记数据来训练模型,使其在面对新场景时仍能保持高效...

Read More
  1. Prev Page
  2. 27
  3. 28
  4. 29
  5. Next Page