漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-04-09 talkingdev

论文:Seg-NN框架简化3D物体识别流程

Seg-NN框架通过去除对大量预训练的需求,极大地优化了3D分割的流程。这一创新使得模型能够快速适应新的、未见过的类别,同时避免了通常存在的领域差异问题。这一技术突破不仅加快了3D物体识别的速度,还提高了模型的...

Read More
2024-04-09 talkingdev

论文:AI图像生成技术新突破,提示自动编辑技术助力文本到图像转换

近期,研究人员开发了一种名为提示自动编辑(Prompt Auto-Editing,简称PAE)的新技术,旨在提升基于文本生成图像的技术水平。该技术利用了Imagen和Stable Diffusion等扩散模型,通过在线强化学习动态调整文本提示中...

Read More
2024-04-09 talkingdev

论文:机器学习模型如何革新医疗保健服务

最近的一份全面研究调查了医疗保健基础模型(Healthcare Foundation Models,简称HFMs)在改变医疗服务方面的潜力。这些模型预先在多样化的数据上进行训练,非常适合适应各种医疗保健任务,从而有可能在众多场景中提...

Read More
2024-04-08 talkingdev

ReFT:一种高效节省参数的微调语言模型方法

近期在GitHub上发布的ReFT(Representation Fine-Tuning)项目,为微调语言模型带来了一种新的参数高效方法。与传统的PeFT相比,ReFT在保持强大性能的同时,大大降低了成本。该方法通过精细化调整模型参数,使得在进...

Read More
2024-04-08 talkingdev

Meta开源新模型训练优化器代码,无需LR调度

Meta的研究团队近日推出了一款新型的优化器,并已在X平台上公开代码及其多种集成方式。这款优化器的独特之处在于它不依赖于学习率(LR)调度,训练过程中无需预先设定总步数。经过实证,该优化器在包括语言模型在内...

Read More
2024-04-08 talkingdev

论文:ReaLMistake基准测试,系统识别大型语言模型错误

研究人员近日推出了ReaLMistake基准测试工具,该工具专注于系统性地检测大型语言模型(LLM)响应中的错误。随着人工智能技术的发展,大型预训练语言模型在多种应用场景中展现出了卓越的性能。然而,这些模型在生成文...

Read More
2024-04-08 talkingdev

Qwen团队发布32B参数模型,实现强大性能并适应中等内存系统

Qwen团队最新力作——一个具备32B参数的AI模型,现已成功训练并对外发布。该模型在各类任务中展现出卓越的性能表现,同时其设计考虑到了内存的局限性,能够适配更为普遍的中等内存硬件系统。这意味着,即便是在资源有...

Read More
2024-04-08 talkingdev

AMD 开源 Radeon GPU 固件以促进 AI 框架发展

AMD 宣布将开源其 Radeon GPU 的固件,这一决定意味着技术社区将能够快速改进人工智能框架,同时也可能提高 AMD 产品的市场接受度。开源固件将使得独立开发者和研究人员能够更深入地了解和修改 GPU 底层功能,从而推...

Read More
  1. Prev Page
  2. 96
  3. 97
  4. 98
  5. Next Page