漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-28 talkingdev

Meta提出了一种三亿五千万参数的语言模型,强大推理能力接近Llama 7B

近日,Meta提出了一种三亿五千万参数的语言模型,其强大的推理能力甚至接近Llama 7B在API函数调用任务中的正确性。该模型尚未发布,但固定参数模型的创新值得探索。

Read More
2024-02-26 talkingdev

谷歌开源轻量级CPP Gemma推理引擎

谷歌工程师和科学家开发了一个新的代码库,名为CPP Gemma推理引擎。与llama.cpp类似,该代码库允许在SIMD CPU架构上进行推理。该工具的目的是鼓励实验和使用昨天发布的Gemma模型。

Read More
2024-02-23 talkingdev

GTBench-评估游戏中的LLMs

GTBench是一个用于测试类似GPT-4这样的LLMs在各种游戏场景中发现其在策略推理方面的优势和劣势的平台。虽然这些模型在基于概率的游戏中表现出很大的潜力,但在确定性游戏中表现不佳,并且在设计和训练上表现也有所不...

Read More
2024-02-23 talkingdev

Lorax-多LoRA模型推理服务器开源

Lorax是一款支持将多个LoRA模型热插拔到单个基础模型上的推理服务器。这意味着在支持广泛的模型调整范围的同时,RAM内存占用会大幅减少。

Read More
2024-02-23 talkingdev

ChartX:测试多模态语言模型理解视觉数据的可视化工具

近日,一种名为ChartX的新工具发布在GitHub上,用于测试多模态大语言模型(MLLM)在解释和推理可视化图表方面的能力。ChartX通过评估模型对图表的理解能力来测试其多模态能力,包括语言和视觉。该工具可以评估多种不...

Read More
2024-02-22 talkingdev

新LLM基准发布:GPT-4表现超前于其他基准

知名研究员Nicholas Carlini发布了他用于评估大型语言模型性能的基准。有趣的是,它让GPT-4的表现在大多数其他基准之上。据了解,这个基准是基于多个指标和任务,包括自然语言推理和问答等。

Read More
2024-02-22 talkingdev

Flexible Vision Transformer开源,可生成任意分辨率图片

GitHub上发布了一个名为“Flexible Vision Transformer”的仓库,该架构设计用于创建任意分辨率和纵横比的图像。与传统模型不同,FiT将图像视为变量大小的标记序列,在训练和推理过程中更有效地适应不同的图像大小。这...

Read More
2024-02-22 talkingdev

谷歌推出Gemma—免费的开源AI聊天机器人家族

谷歌推出了一系列新的AI语言模型Gemma,这些模型是基于类似Gemini的技术构建的免费开源模型。Gemma模型可在桌面或笔记本电脑上本地运行,有两个模型,一个有20亿个参数,另一个有70亿个参数。每个模型都有经过预训练...

Read More
2024-02-21 talkingdev

KV Quant - 缩放至1000万个令牌

KV缓存的量化是Transformer架构的一个技术细节,它使其在推理时使用更少的内存。量化是在最小损失质量的情况下缩小浮点精度。

Read More
2024-02-21 talkingdev

Sora、Groq和虚拟现实

Vision Pro和OpenAI的Sora在同一个月份推出。与此同时,Groq正在展示实时推理可能比以前想象的更可行。台积电正在推动2nm芯片,而英特尔正在做出可靠的努力加入其中。虽然虚拟现实还需要更多的工作,但现在许多关键...

Read More
  1. Prev Page
  2. 12
  3. 13
  4. 14
  5. Next Page