漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-07-24 talkingdev

多Agent模型探索性能的升级改进

研究人员通过在最大熵框架内添加一种本地Q值学习方法,提高了QMIX的效能,QMIX是一种广受欢迎的多代理强化学习方法。这种改进的方法使得多代理模型在探索过程中能够更有效地学习,同时也提高了模型的整体性能。在多...

Read More
2024-07-22 talkingdev

MoME-提升多模态语言模型性能的新方法

研究人员提出了一种名为“多模态专家混合体” (MoME) 的方法,以解决通用的多模态大型语言模型(MLLMs)中的任务干扰问题。在多模态大型语言模型中,任务干扰是一个常见的问题,它可能会影响模型的性能和效率。MoME的提...

Read More
2024-07-19 talkingdev

E5-V开源-全球多模态嵌入与LLMs

E5-V是一种新的框架,其改编了多模态大型语言模型(MLLMs)以创建全球多模态嵌入。通过使用提示,它弥补了不同输入类型之间的差距,而无需进行微调就实现了在多模态任务中的令人印象深刻的性能。这一全球多模态嵌入...

Read More
2024-07-19 talkingdev

OpenAI推出新款小型模型GPT-4o Mini,颠覆GPT-3.5

OpenAI近日推出了一款新型小型模型——GPT-4o Mini,目标是替代现有的GPT-3.5模型。GPT-4o Mini在MMLU(Mixed Multi-Level Understanding)上的得分为82,这对于低成本模型来说是相当合理的表现。OpenAI一直致力于开发...

Read More
2024-07-09 talkingdev

Meta发布AI新突破:多token预测模型现已开放研究

Meta推出了利用全新的多令牌预测方法的预训练模型,该方法可以同时预测多个未来的词汇,承诺提升性能并大幅度缩短训练时间。这种新颖的多令牌预测方法改变了我们对于未来词汇的预测方式,将其从单一的词汇预测转变为...

Read More
2024-07-04 talkingdev

Meta Multi Token Prediction Models多标记预测模型:在Hugging Face Hub表现强劲

近日,Meta发布了其多标记预测模型。据悉,该模型在Hugging Face Hub上的表现非常强劲。这款模型采用高级算法进行数据预测,能够同时处理多个标记,提高了预测的准确性和效率。对于个人和企业用户来说,这款多标记预...

Read More
2024-07-03 talkingdev

SmoothMQ:提升开发者体验的SQS替代方案正式亮相

SmoothMQ作为SQS的替代解决方案,为开发者提供了更加流畅的体验。它不仅具备功能性用户界面、可观测性、追踪能力、消息调度以及速率限制等功能,还允许用户在任何云平台上运行私有的SQS实例。SmoothMQ的部署过程十分...

Read More
2024-07-01 talkingdev

深入探讨:训练MoEs模型

Mosaic团队已与PyTorch合作,撰写关于如何扩展他们的MoEs模型至数千个GPU的文章。MoEs,全称Mixture of Experts,是一种深度学习的模型结构,其核心思想是将复杂的问题分解为若干个相对简单的子问题,然后由专家系统...

Read More
2024-06-27 talkingdev

Director3D开源-现实世界3D场景AI生成框架

近日,一款名为Director3D的新框架引起了行业内的广泛关注。这款框架的设计目标是提升现实世界3D场景的生成和相机轨迹的模拟。Director3D运用了一种名为轨迹扩散变换器(Trajectory Diffusion Transformer)和多视图...

Read More
2024-06-27 talkingdev

论文:DeepMind通过联合样本选择进行数据策划,进一步加速多模态学习

在预训练中,如何积极选择下一批最好的样本是一个挑战性和开放性的问题。DeepMind的这项工作探索了如何只花费10%的浮点运算和硬挖掘负样本,仍然能匹配各种任务的最新技术。在这个过程中,他们采用了一种名为“联合样...

Read More
  1. Prev Page
  2. 4
  3. 5
  4. 6
  5. Next Page