漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2026-02-25 talkingdev

通义千问Qwen3.5-35B-A3B模型发布:支持26万超长上下文,集成多模态与强化学习突破

近日,通义千问团队在Hugging Face平台正式发布了Qwen3.5-35B-A3B模型。该模型集成了当前人工智能领域的多项前沿技术突破,旨在通过开源方式推动AI技术的民主化与普及。其核心亮点在于原生支持高达262,144个令牌的上...

Read More
2026-02-23 talkingdev

开源|突破显存限制:开发者实现单张RTX 3090运行Llama 3.1 70B,NVMe直连GPU绕过CPU

近日,在GitHub上开源名为“ntransformer”的高效大语言模型推理引擎项目,其核心创新在于探索并实现了通过NVMe存储设备直接与GPU通信,绕过CPU和系统内存的传统数据路径,从而在消费级显卡RTX 3090上成功运行了参数量...

Read More
2026-02-10 talkingdev

开源|Transformers.js v4预览版发布:WebGPU加速,JavaScript生态迎来原生AI推理新纪元

人工智能开源社区Hugging Face近日在NPM上发布了Transformers.js v4的预览版本,标志着在Web端及JavaScript生态系统中部署和运行机器学习模型的能力迈入了新的阶段。Transformers.js的核心价值在于允许开发者直接在...

Read More
2026-01-01 talkingdev

开源|E2E:基于JAX的端到端测试时训练框架,革新长上下文语言建模

近日,GitHub上开源了一个名为E2E的JAX官方实现项目,它提出了一种创新的长上下文语言建模方法。该方法的核心在于将传统的语言建模任务重新定义为持续学习问题。E2E模型采用标准的Transformer架构,并配合滑动窗口注...

Read More
2026-01-01 talkingdev

开源|LMCache:为LLM服务注入极速KV缓存层,响应速度提升3-10倍

近日,一个名为LMCache的开源项目在GitHub上发布,旨在通过创新的键值(KV)缓存加速层,显著提升大型语言模型(LLM)的服务性能。该项目专为LLM推理服务设计,其核心在于能够跨GPU、CPU、本地磁盘和Redis等多种存储...

Read More
2025-12-23 talkingdev

图解Transformer经典:让复杂架构一目了然

一篇题为《图解Transformer》的技术博客在开发者社区Hacker News上引发了广泛关注,该博客由jalammar撰写,通过大量直观的图示和清晰的解释,深入浅出地剖析了Transformer这一革命性神经网络架构的核心工作原理。Tra...

Read More
2025-12-02 talkingdev

开源|ViBT:20B参数视觉桥接Transformer,高效图像与视频编辑新突破

近日,GitHub上开源了一个名为ViBT(Vision Bridge Transformer)的项目,该项目将布朗桥模型(Brownian Bridge Models)扩展至高达200亿参数规模,专门用于高效的图像与视频条件生成任务。ViBT的核心创新在于其采用...

Read More
2025-12-02 talkingdev

开源|苹果发布STARFlow与STARFlow-V:基于Transformer自回归流的图像与视频生成新突破

苹果公司在Hugging Face平台开源了STARFlow与STARFlow-V模型,标志着图像与视频生成领域迎来了一项重要的技术进展。STARFlow是一种创新的Transformer自回归流模型,其核心在于巧妙地将自回归模型强大的表达能力与归...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page