漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-04-10 talkingdev

Visual Autoregressive Models:图像生成高分辨率解决方案

Visual Autoregressive Models是一个新的GitHub项目,它将图像生成视为逐步预测更高分辨率的过程。该代码库包含了用于下一分辨率预测工作的推理脚本和演示笔记本。虽然训练代码将很快公开,但目前该项目已经引起了技...

Read More
2024-04-10 talkingdev

SqueezeAttention技术助力LLM优化,内存使用降低30%至70%

近日,开发者社区GitHub上出现了一项名为SqueezeAttention的新技术,该技术针对大型语言模型(LLMs)的键值缓存进行了优化。通过SqueezeAttention,内存使用量能够显著降低30%至70%,同时吞吐量也得到了翻倍提升。这...

Read More
2024-04-10 talkingdev

Chemistry Bench:针对语言模型的化学问题测试基准

近日,GitHub上发布了一项新的基准测试工具——化学工作台(Chemistry Bench),旨在评估大型语言模型在处理化学问题方面的能力。该工具与Big-Bench兼容,能够对语言模型的科学素养进行有效衡量。化学工作台通过一系列...

Read More
2024-04-10 talkingdev

谷歌推出Code Assist,向GitHub Copilot发起最新挑战

谷歌近日推出了一款面向企业用户的人工智能代码补全和辅助工具——Gemini Code Assist。该工具曾以已停止的Duet AI品牌提供服务,并在2023年底全面开放使用。Code Assist不仅是一次品牌重塑,也是一次重大更新。它采用...

Read More
2024-04-08 talkingdev

AI本地搜索新突破:LocalSearch开源

LocalSearch 是一个基于LLM Agents的完全本地运行的搜索引擎。该技术允许用户在不依赖外部服务器的情况下,实现高效的本地数据检索。这一创新性项目已经在GitHub上开源,开发者可以自由地下载和使用。LocalSearch 的...

Read More
2024-04-08 talkingdev

ReFT:一种高效节省参数的微调语言模型方法

近期在GitHub上发布的ReFT(Representation Fine-Tuning)项目,为微调语言模型带来了一种新的参数高效方法。与传统的PeFT相比,ReFT在保持强大性能的同时,大大降低了成本。该方法通过精细化调整模型参数,使得在进...

Read More
2024-04-08 talkingdev

Meta开源新模型训练优化器代码,无需LR调度

Meta的研究团队近日推出了一款新型的优化器,并已在X平台上公开代码及其多种集成方式。这款优化器的独特之处在于它不依赖于学习率(LR)调度,训练过程中无需预先设定总步数。经过实证,该优化器在包括语言模型在内...

Read More
2024-04-08 talkingdev

Stack Overflow如何取代Experts Exchange成为工程师文化的核心

本文讲述了Stack Overflow的创建历程及其在未来十年是否能在工程文化中占有一席之地。在Stack Overflow之前,是Experts Exchange,作为互联网上最早的问答网站之一,它自1996年起便存在。Experts Exchange免费运营了...

Read More
2024-04-08 talkingdev

pgmock:一款完全在WebAssembly中运行的内存虚拟PostgreSQL服务器

近日,一款名为pgmock的新技术引起了开发者社区的广泛关注。pgmock是一个内存中的虚拟PostgreSQL服务器,专为单元和端到端测试设计。该技术的特点在于它完全在WebAssembly中运行,不需要任何外部依赖即可在Node.js和...

Read More
2024-04-07 talkingdev

WinBtrfs:Windows的开源btrfs驱动程序

WinBtrfs是一款开源的btrfs驱动程序,为Windows操作系统提供了对btrfs文件系统的支持。Btrfs是一种现代的文件系统,具有许多优点,例如快照、RAID、数据压缩和容错能力。WinBtrfs使得Windows用户可以更好地使用btrfs...

Read More
  1. Prev Page
  2. 22
  3. 23
  4. 24
  5. Next Page