漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-04-26 talkingdev

MILS开源-无需训练即可实现视觉与听觉感知

Facebook研究团队近日在GitHub开源了MILS项目代码,其核心突破在于证明大型语言模型(LLMs)无需额外训练即可具备跨模态感知能力。该项目论文《LLMs can see and hear without any training》提出创新方法,通过重构...

Read More
2025-04-24 talkingdev

[论文推荐]ANFM提出基于过滤技术的快速图生成新方法

ANFM研究团队在arXiv最新发表的论文中,提出了一种基于过滤技术(filtration techniques)的革命性图生成方法。该技术通过优化传统图生成模型的拓扑结构处理流程,实现了比扩散模型快100倍的训练速度,同时保持了具...

Read More
2025-04-23 talkingdev

突破性研究:如何教会大语言模型进行实体建模

近日,一项关于大语言模型(LLMs)在实体建模领域应用的研究引发了科技界的广泛关注。该研究探索了如何让LLMs掌握实体建模这一传统上需要专业CAD软件技能的复杂任务。研究者通过创新的训练方法,使LLMs能够理解三维...

Read More
2025-04-22 talkingdev

可验证奖励模型WQRM:AI创意写作质量评估新突破

写作质量奖励模型(Writing Quality Reward Models, WQRM)作为评估创意写作质量的新方法,正在重塑AI内容生成领域的技术范式。该模型通过强化学习框架提供可量化的质量反馈,不仅能精准评估文本创作水平,更可作为...

Read More
2025-04-21 talkingdev

[论文推荐]睡眠时间计算:提升LLM推理效率的新方法

一项突破性研究提出通过预计算上下文相关量来降低大型语言模型(LLM)推理成本的新方法。该技术利用模型空闲时间预先处理可能用到的上下文信息,在用户查询到来时能直接调用预计算结果。实验数据显示,这种方法可节省...

Read More
2025-04-08 talkingdev

图像生成技术迎来重大突破:告别'大象难题'

近日,图像生成领域取得了一项重要技术突破,成功解决了长期困扰业界的'大象难题'。这一突破性进展标志着生成式AI在图像合成质量与逻辑一致性方面迈上了新台阶。研究人员通过改进LLM与扩散模型的协同机制,结合创新...

Read More
2025-04-07 talkingdev

[论文推荐]DeepSeek提出推理时缩放技术,革新通用奖励模型训练范式

DeepSeek最新研究论文《Inference-Time Scaling for Generalist Reward Modeling》提出了一种创新方法,通过推理时缩放技术优化奖励模型,从而引导更强大的推理模型生成。该技术标志着这家中国初创公司的一项战略布...

Read More
2025-04-04 talkingdev

[论文推荐]CLIP模型存在后门攻击漏洞:仅需少量数据即可实现近100%攻击成功率

最新研究发现,当前广泛应用的CLIP(Contrastive Language-Image Pretraining)多模态模型存在严重的安全隐患。根据arXiv最新论文披露,攻击者通过数据投毒(poisoning)方式植入后门,仅需污染0.5%的训练数据即可实...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page