近日,GitHub上一个名为‘soulplayer-c64’的开源项目引发了技术社区的广泛关注。该项目成功地在仅有1MHz主频、内存极其有限的经典计算机Commodore 64上,部署并运行了一个拥有25,000个参数的真实Transformer神经网络...
Read More近日,OpenMed团队在Hugging Face平台发布了一项重要成果,展示了其构建的端到端蛋白质AI全流程。该流程涵盖了蛋白质结构预测、序列设计以及关键的密码子优化环节。研究团队对多种Transformer架构进行了深入的密码子...
Read More人工智能研究机构Percepta近期发布了一项前沿研究成果,探讨了大型语言模型(LLMs)作为通用计算设备的可能性。该研究成功在Transformer架构内部构建了一个“计算机”,能够高效执行任意的C语言程序,并运行数百万个计...
Read More人工智能开源社区Hugging Face近日在NPM上发布了Transformers.js v4的预览版本,标志着在Web端及JavaScript生态系统中部署和运行机器学习模型的能力迈入了新的阶段。Transformers.js的核心价值在于允许开发者直接在...
Read More近日,GitHub上开源了一个名为E2E的JAX官方实现项目,它提出了一种创新的长上下文语言建模方法。该方法的核心在于将传统的语言建模任务重新定义为持续学习问题。E2E模型采用标准的Transformer架构,并配合滑动窗口注...
Read More一篇题为《图解Transformer》的技术博客在开发者社区Hacker News上引发了广泛关注,该博客由jalammar撰写,通过大量直观的图示和清晰的解释,深入浅出地剖析了Transformer这一革命性神经网络架构的核心工作原理。Tra...
Read More近日,GitHub上开源了一个名为ViBT(Vision Bridge Transformer)的项目,该项目将布朗桥模型(Brownian Bridge Models)扩展至高达200亿参数规模,专门用于高效的图像与视频条件生成任务。ViBT的核心创新在于其采用...
Read More大语言模型(LLM)作为基于Transformer架构的神经网络,通过并行分析完整序列并计算词语间的全局关联性,实现了自然语言处理的突破性进展。在推理过程中,模型首先将输入文本转化为数字化的词元嵌入向量,随后通过Tr...
Read More