漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-04-10 talkingdev

UniFL技术提升稳定扩散模型输出质量

UniFL是一种通过一系列复杂的反馈步骤来提高扩散模型输出质量的方法。这些步骤旨在提升生成图像的视觉质量、美感和偏好对齐。这些技术与底层模型无关,可用于提升任何图像生成模型的性能

Read More
2024-04-10 talkingdev

谷歌Gemma扩展模型提升性能与效率

谷歌近期成功训练了一套名为Gemma的代码模型和循环Gemma模型。这些新模型展现出了与现有技术相媲美的性能,并且已经集成了FIM(查找插入记忆)功能。值得注意的是,循环Gemma模型在运行速度和内存效率方面都有显著提...

Read More
2024-04-09 talkingdev

FlyFlow开源:API中间件助力优化LLM应用

FlyFlow是一个专为优化基于大型语言模型(LLM)的应用程序而设计的API中间件。该中间件通过简化API调用流程,提高数据传输效率,使得开发者能够更加便捷地构建和维护基于LLM的应用程序。FlyFlow支持自动化的错误处理...

Read More
2024-04-09 talkingdev

AIOS:为操作系统注入'大脑'的LLM Agent

AIOS是一个创新型的操作系统,它通过将大型语言模型嵌入到操作系统中,作为系统的核心'大脑',从而赋予了操作系统全新的生命力。与传统操作系统相比,AIOS通过深度学习和自然语言处理技术,能够更加智能地理解用户需...

Read More
2024-04-09 talkingdev

微软Arm架构Windows笔记本有望超越苹果M3芯片性能

微软计划于5月20日在西雅图举行的活动上展示其对AI PC的愿景。公司对新款Arm架构Windows笔记本充满信心,认为其将在CPU性能和AI加速任务方面超越苹果搭载M3芯片的MacBook Air。这些笔记本将搭载高通的Snapdragon X E...

Read More
2024-04-08 talkingdev

MLPerf 基准测试新增大型生成型AI模型,Nvidia 系统性能超群

MLPerf 近日更新了其推理基准测试,新增了如 Llama 2 70B 和 Stable Diffusion XL 等大型语言模型,这一变化体现了整个行业对于大型生成型人工智能的转移。在最新测试中,Nvidia 的系统,尤其是搭载了 H200 处理器的...

Read More
2024-04-08 talkingdev

ReFT:一种高效节省参数的微调语言模型方法

近期在GitHub上发布的ReFT(Representation Fine-Tuning)项目,为微调语言模型带来了一种新的参数高效方法。与传统的PeFT相比,ReFT在保持强大性能的同时,大大降低了成本。该方法通过精细化调整模型参数,使得在进...

Read More
2024-04-08 talkingdev

Meta开源新模型训练优化器代码,无需LR调度

Meta的研究团队近日推出了一款新型的优化器,并已在X平台上公开代码及其多种集成方式。这款优化器的独特之处在于它不依赖于学习率(LR)调度,训练过程中无需预先设定总步数。经过实证,该优化器在包括语言模型在内...

Read More
2024-04-08 talkingdev

论文:ReaLMistake基准测试,系统识别大型语言模型错误

研究人员近日推出了ReaLMistake基准测试工具,该工具专注于系统性地检测大型语言模型(LLM)响应中的错误。随着人工智能技术的发展,大型预训练语言模型在多种应用场景中展现出了卓越的性能。然而,这些模型在生成文...

Read More
2024-04-08 talkingdev

Qwen团队发布32B参数模型,实现强大性能并适应中等内存系统

Qwen团队最新力作——一个具备32B参数的AI模型,现已成功训练并对外发布。该模型在各类任务中展现出卓越的性能表现,同时其设计考虑到了内存的局限性,能够适配更为普遍的中等内存硬件系统。这意味着,即便是在资源有...

Read More
  1. Prev Page
  2. 58
  3. 59
  4. 60
  5. Next Page