漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-04-03 talkingdev

SWE-agent,问题的修复率达到12%

普林斯顿大学的软件工程小组近日开源了一款名为“SWE-agent”的工具,该工具可以帮助开发者在GitHub上提高问题修复率。该小组在GitHub上发布了800个问题以供参考,工具通过学习这些问题并分析代码库中的代码,能够快速...

Read More
2024-04-02 talkingdev

微软推出面向初学者的生成型人工智能课程

微软在其广受欢迎的大型语言模型(LLMs)、向量数据库、提示技术以及低代码应用课程的基础上,发布了第二版的课程内容,现已上线GitHub。该课程共包含18课,虽然部分内容具有前瞻性,但依然是踏入该领域的良好起点。...

Read More
2024-04-02 talkingdev

英伟达TensorRT更新,性能提升达28倍,Llama 2基准测试每秒处理1200个令牌

英伟达在其GitHub仓库Optimum-Nvidia中发布了TensorRT的最新更新,这一更新使得AI推理速度大幅提高,达到了比基线快28倍的速度。特别是在Llama 2的基准测试中,能够达到每秒处理1200个令牌的惊人速度。这一进步得益...

Read More
2024-04-01 talkingdev

Qwen MoE性能匹敌7B大模型,激活参数仅三分之一

近期,一项名为Qwen MoE的技术引起了业界关注。该技术在保持与强大7B参数模型相当性能的同时,成功将激活参数数量减少至原来的三分之一。这一突破性的进展不仅意味着更低的计算成本,还为大规模机器学习模型的可访问...

Read More
2024-04-01 talkingdev

自动驾驶赛车如何推动无人驾驶汽车技术的进步

自动驾驶赛车通过在高压条件下应用人工智能和机器学习技术,正推动无人驾驶汽车技术的发展。例如,Indy Autonomous Challenge等竞赛正在加速车辆安全性方面的创新。研究者和学生利用F1tenth等平台开发算法,在实际赛...

Read More
2024-03-29 talkingdev

论文:CoDA技术助力AI模型无监督领域适应能力提升

CoDA作为一种新的无监督领域适应(UDA)方法,通过在场景和图像两个层面学习差异,帮助AI模型更好地适应未标记的、具有挑战性的环境。CoDA的核心在于利用大量未标记数据来训练模型,使其在面对新场景时仍能保持高效...

Read More
2024-03-29 talkingdev

1比特语言模型:后训练量化技术助力在消费级GPU上运行700亿参数模型

1比特语言模型的研究为深度学习领域带来了新的突破。该技术通过在不损失性能的前提下,对语言模型中的线性层进行量化处理,实现了模型大小的大幅压缩。这一创新使得原本只能在高性能计算平台上运行的700亿参数模型,...

Read More
2024-03-29 talkingdev

未来GPU将如何实现万亿晶体管:探索高效能AI的无限可能

人工智能的近期成就归功于三个主要因素:高效机器学习算法的创新、海量数据集的支持以及半导体技术的进步带来的能源高效计算。为了保持当前的发展速度,行业需要更为强大的设备。在过去的五十年中,行业一直专注于晶...

Read More
  1. Prev Page
  2. 64
  3. 65
  4. 66
  5. Next Page