Facebook研究团队近日在GitHub开源了MILS项目代码,其核心突破在于证明大型语言模型(LLMs)无需额外训练即可具备跨模态感知能力。该项目论文《LLMs can see and hear without any training》提出创新方法,通过重构...
Read MoreANFM研究团队在arXiv最新发表的论文中,提出了一种基于过滤技术(filtration techniques)的革命性图生成方法。该技术通过优化传统图生成模型的拓扑结构处理流程,实现了比扩散模型快100倍的训练速度,同时保持了具...
Read More近日,一项关于大语言模型(LLMs)在实体建模领域应用的研究引发了科技界的广泛关注。该研究探索了如何让LLMs掌握实体建模这一传统上需要专业CAD软件技能的复杂任务。研究者通过创新的训练方法,使LLMs能够理解三维...
Read More写作质量奖励模型(Writing Quality Reward Models, WQRM)作为评估创意写作质量的新方法,正在重塑AI内容生成领域的技术范式。该模型通过强化学习框架提供可量化的质量反馈,不仅能精准评估文本创作水平,更可作为...
Read More一项突破性研究提出通过预计算上下文相关量来降低大型语言模型(LLM)推理成本的新方法。该技术利用模型空闲时间预先处理可能用到的上下文信息,在用户查询到来时能直接调用预计算结果。实验数据显示,这种方法可节省...
Read More近日,图像生成领域取得了一项重要技术突破,成功解决了长期困扰业界的'大象难题'。这一突破性进展标志着生成式AI在图像合成质量与逻辑一致性方面迈上了新台阶。研究人员通过改进LLM与扩散模型的协同机制,结合创新...
Read MoreDeepSeek最新研究论文《Inference-Time Scaling for Generalist Reward Modeling》提出了一种创新方法,通过推理时缩放技术优化奖励模型,从而引导更强大的推理模型生成。该技术标志着这家中国初创公司的一项战略布...
Read More最新研究发现,当前广泛应用的CLIP(Contrastive Language-Image Pretraining)多模态模型存在严重的安全隐患。根据arXiv最新论文披露,攻击者通过数据投毒(poisoning)方式植入后门,仅需污染0.5%的训练数据即可实...
Read More