漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-05-20 talkingdev

PaliGemma:谷歌最新实时运行的推理VLM模型

现在,您可以使用GPT-Fast实时运行最新的Google VLM。这为我们打开了一扇强大的大门,因为该模型非常容易为特定任务进行微调。这意味着,我们可以轻松地将其应用到各种下游任务中。PaliGemma的实时运行不仅能够提高...

Read More
2024-05-15 talkingdev

Google推出全新轻量级模型Gemini Flash,拥有多模态推理和高达百万Token上下文窗口

近日,Google发布了新的轻量级模型Gemini Flash。此模型具有多模态推理和高达一百万个符号的长上下文窗口。Google利用其先进的技术,使Gemini Flash在处理大量数据时保持了高效与精确。这种新型的轻量级模型将有助于...

Read More
2024-05-15 talkingdev

论文:深度学习新模型,无状态序列并行推理

深度学习领域有了一项新的突破。研究人员开发出了一个新的状态空间模型,这一模型使用双重转移函数表示。其主要特点是一个无状态的序列并行推理算法。这种新的推理算法能够在处理大规模数据时,有效提高计算效率和准...

Read More
2024-05-14 talkingdev

OpenAI发布新型模型GPT-4o,性能卓越,更有全新桌面应用

OpenAI近日宣布推出一款名为GPT-4o的全新模型。此款模型是一种天生的多模型处理,其性能在文本处理方面已超越GPT-4,并在各种模式上展现出最先进的性能。OpenAI同时也发布了一款全新的桌面应用,一个接近实时的音频...

Read More
2024-05-10 talkingdev

阿里巴巴推出全新大语言模型Qwen2.5

阿里巴巴云已经发布了其最新版的大语言模型 - Tongyi Qianwen Qwen2.5。这一新版本在推理、代码理解以及文本理解等方面相比于Qwen2.0有了显著的改进。Qwen2.5的推出标志着阿里巴巴在人工智能语言模型开发上取得了重...

Read More
2024-05-10 talkingdev

一次缓存,永久有效:YOCO架构再塑GPU内存需求

YOCO架构是一种具有全局注意力能力的解码器-解码器模型,能有效地降低GPU内存需求。它包含一个自解码器和一个交叉解码器,使得关键-值对的缓存和复用更加高效。与传统的Transformer相比,YOCO在推理内存、延迟和吞吐...

Read More
2024-05-09 talkingdev

QoQ高效量化算法助力LLM推理加速

QoQ,一种新型量化算法,通过使用4位权重、8位激活和4位KV缓存,加速了大型语言模型推理。量化是一种广泛应用于深度学习中的技术,它能够减少模型的存储需求和计算复杂性。在这种情况下,QoQ算法采用了较低精度的数...

Read More
2024-05-08 talkingdev

Consistency LLM:将LLMs转换为并行解码器可将推理加速3.5倍

Consistency LLM是一种新的自然语言处理模型,可以将其转换为并行解码器,从而将推理时间缩短至3.5倍。LLM模型是一种具有良好性能的模型,但推理速度较慢。该研究团队将LLM转换为并行解码器,使用了一种名为一致性训...

Read More
2024-05-07 talkingdev

ml-rpm-bench: 视觉-语言模型在视觉推理方面的限制评估

像GPT-4V这样的视觉-语言模型在理解和与图像和文本交互方面正在快速发展。然而,最近的一项研究揭示了它们在视觉推理上的重大限制。研究人员使用复杂的视觉难题,如智商测试中的难题,来测试这些模型,并发现它们在...

Read More
2024-05-07 talkingdev

DeepSeek发布200B+参数模型——DeepSeek-V2

DeepSeek近期推出了一个具有超过2000亿参数的模型DeepSeek-V2,其中激活参数达到210亿。无论是在编码还是推理方面,该模型的表现都极为出色。虽然目前尚不清楚其性能是否超过了拥有700亿参数的Llama 3模型,但无疑,...

Read More
  1. Prev Page
  2. 7
  3. 8
  4. 9
  5. Next Page