漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2026-04-21 talkingdev

开源|Soul Player C64:在1MHz的Commodore 64上运行的真实Transformer模型

近日,GitHub上一个名为‘soulplayer-c64’的开源项目引发了技术社区的广泛关注。该项目成功地在仅有1MHz主频、内存极其有限的经典计算机Commodore 64上,部署并运行了一个拥有25,000个参数的真实Transformer神经网络...

Read More
2026-04-02 talkingdev

OpenMed突破:仅165美元训练覆盖25个物种的mRNA语言模型,CodnRoBERTa性能显著领先

近日,OpenMed团队在Hugging Face平台发布了一项重要成果,展示了其构建的端到端蛋白质AI全流程。该流程涵盖了蛋白质结构预测、序列设计以及关键的密码子优化环节。研究团队对多种Transformer架构进行了深入的密码子...

Read More
2026-03-16 talkingdev

突破性研究:Transformer能否成为通用计算机?Percepta展示在模型内部执行C程序

人工智能研究机构Percepta近期发布了一项前沿研究成果,探讨了大型语言模型(LLMs)作为通用计算设备的可能性。该研究成功在Transformer架构内部构建了一个“计算机”,能够高效执行任意的C语言程序,并运行数百万个计...

Read More
2026-02-10 talkingdev

开源|Transformers.js v4预览版发布:WebGPU加速,JavaScript生态迎来原生AI推理新纪元

人工智能开源社区Hugging Face近日在NPM上发布了Transformers.js v4的预览版本,标志着在Web端及JavaScript生态系统中部署和运行机器学习模型的能力迈入了新的阶段。Transformers.js的核心价值在于允许开发者直接在...

Read More
2026-01-01 talkingdev

开源|E2E:基于JAX的端到端测试时训练框架,革新长上下文语言建模

近日,GitHub上开源了一个名为E2E的JAX官方实现项目,它提出了一种创新的长上下文语言建模方法。该方法的核心在于将传统的语言建模任务重新定义为持续学习问题。E2E模型采用标准的Transformer架构,并配合滑动窗口注...

Read More
2025-12-23 talkingdev

图解Transformer经典:让复杂架构一目了然

一篇题为《图解Transformer》的技术博客在开发者社区Hacker News上引发了广泛关注,该博客由jalammar撰写,通过大量直观的图示和清晰的解释,深入浅出地剖析了Transformer这一革命性神经网络架构的核心工作原理。Tra...

Read More
2025-12-02 talkingdev

开源|ViBT:20B参数视觉桥接Transformer,高效图像与视频编辑新突破

近日,GitHub上开源了一个名为ViBT(Vision Bridge Transformer)的项目,该项目将布朗桥模型(Brownian Bridge Models)扩展至高达200亿参数规模,专门用于高效的图像与视频条件生成任务。ViBT的核心创新在于其采用...

Read More
2025-11-24 talkingdev

揭秘大语言模型推理机制:从输入到输出的技术全流程

大语言模型(LLM)作为基于Transformer架构的神经网络,通过并行分析完整序列并计算词语间的全局关联性,实现了自然语言处理的突破性进展。在推理过程中,模型首先将输入文本转化为数字化的词元嵌入向量,随后通过Tr...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page