漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-21 talkingdev

OpenRLHF开源,提供基于Ray的RLHF实现

近日,GitHub上有一个新的仓库OpenRLHF发布了。这是一个基于Ray的RLHF实现,专为Llama样式模型设计。该仓库集成了多种PPO稳定技巧,以提高性能。Ray是一款新型的分布式计算框架,它具有高效、易用等特点,支持快速构...

Read More
2024-02-21 talkingdev

Magic获得1.17亿美元继续开发代码生成模型

Magic正在构建一款AI软件工程师,并获得更多资金来支持这一过程。该公司最近获得1.17亿美元的资金,以帮助开发人员自动生成代码。Magic的平台使用AI技术,可以自动完成大量编码工作,从而节省时间和减少人为错误。该...

Read More
2024-02-21 talkingdev

SSD技术已变得非常快, 但在云端表现仍有瓶颈

尽管过去七年来SSD技术有了很大的提升,但AWS NVMe实例的性能仍然停留在每个SSD 2GB/s的速度。这远远低于SSD的最大速度。这是因为在云端中,SSD不能直接连接到CPU和内存。相反,SSD必须通过网络连接到服务器,这会导...

Read More
2024-02-20 talkingdev

OpenMathInstruct-用LLMs提高数学技能

研究人员创建了OpenMathInstruct-1,这是一个用于训练开源大型语言模型数学的新数据集,可与闭源模型的性能相匹配。这一突破包含180万个问题解决对,为更加可访问和有竞争力的数学教学AI工具打开了大门。

Read More
2024-02-20 talkingdev

谷歌发布 Gemini 1.5 Pro,性能匹敌 Gemini 1.0 Ultra,支持上下文1百万令牌

谷歌发布了一款新的 MoE 模型,命名为 Gemini 1.5 Pro,它的性能可以与 Gemini 1.0 Ultra 媲美。同时,它支持上下文1百万令牌,并且相比较于 Gemini 1.0 Ultra,使用更少的计算资源,因为它更小巧。这个模型是本地多...

Read More
2024-02-20 talkingdev

Groq的响应速度是我见过的最快的

Groq可以每秒提供高达500个令牌。它能够做到这一点,是因为它使用了使用线性处理器单元(LPUs)而不是GPU的定制硬件。 LPUs旨在为AI计算提供确定性性能。它们提供了一种更简化的方法,消除了复杂的调度硬件的需要,...

Read More
2024-02-19 talkingdev

RoCo-开源高效LLM新策略

GitHub近日开源了一项名为RoCo的新策略,该策略旨在提高LLM在有限资源环境下的效率。RoCo是一种强大的缓存遗漏策略,可以帮助用户更好地使用LLM。该政策的发布将有助于优化机器学习应用的性能,提高效率。RoCo的开源...

Read More
2024-02-19 talkingdev

Lambda Labs完成3.2亿美元C轮融资,将继续构建强大的GPU云

Lambda Labs最近完成了3.2亿美元的C轮融资,以继续推进其强大的GPU云技术。该公司的GPU云可以为用户提供高性能计算和机器学习服务。Lambda Labs计划利用这笔融资来扩大其研发团队和全球业务,以加速其在云计算领域的...

Read More
2024-02-16 talkingdev

为什么“基于数据的聊天”比你想象的更难

构建特定领域、基于聊天的LLM应用和协同工具比人们想象的更具挑战性。其中一些挑战包括实现强大的性能、处理复杂的数据和复杂的查询,以及为基于LLM的聊天应用程序实现强大的数据检索。

Read More
2024-02-16 talkingdev

谷歌推出下一代AI模型Gemini 1.5,开发者和企业用户可以提前体验

谷歌推出了Gemini 1.5,开发者和企业用户可以提前体验,而消费者版的全面推出还需要等待。新版Gemini的性能高端,与谷歌最近推出的高端Gemini Ultra相媲美。Gemini 1.5采用了专家混合技术,使得模型对于用户而言更快...

Read More
  1. Prev Page
  2. 57
  3. 58
  4. 59
  5. Next Page